Hugging Face lançou recentemente o Falcon 180B, a maior fonte aberta de Modelo de Língua Grande que se diz ter um desempenho tão bom quanto a AI de ponta do Google, o Palm 2. Além disso, não possui limitações para impedir a criação de saídas inseguras e prejudiciais.
O Falcon 180B alcança um estado de desempenho de ponta.
A expressão “estado da arte” indica que algo está sendo feito no mais alto nível possível, atingindo ou superando o padrão atual do que é considerado o melhor.
É uma conquista significativa quando os pesquisadores revelam que um algoritmo ou modelo de linguagem grande alcança o melhor desempenho atualmente disponível.
Hugging Face expressa exatamente isso em relação ao Falcon 180B.
O Falcon 180B alcança um alto nível de desempenho em tarefas de processamento de linguagem natural, superando modelos de código aberto anteriores e também rivalizando com o Palm 2 do Google em termos de eficiência.
Isso também não é apenas motivo de orgulho.
Hugging Face sugere que Falcon 180B é comparável ao Palm 2 e tem respaldo em dados.
Os dados indicam que o Falcon 180B supera o anterior Llama 270B, o modelo de código aberto mais potente, em várias tarefas que avaliam a potência de um modelo de IA.
O Falcão 180B supera até mesmo o GPT-3.5 da OpenAI em desempenho.
Os resultados dos testes indicam que o desempenho do Falcon 180B é comparável ao do Palm 2 da Google.
Comparação de desempenho capturada em uma imagem.
O aviso esclareceu:
“Falcon 180B se destaca como o principal LLM lançado atualmente, ultrapassando Llama 2 70B e OpenAI GPT-3.5.”
O Falcon 180B geralmente é classificado em uma posição intermediária entre GPT 3.5 e GPT 4, variando de acordo com a fonte de avaliação.
O anúncio sugere que os usuários podem otimizar ainda mais o desempenho do modelo por meio de ajustes adicionais.
Pequenos detalhes técnicos relacionados à indexação, como a implementação de redirecionamentos 301 por meio de links internos para URLs antigas que foram atualizadas com uma nova estrutura de categorias.
Dados utilizados no treinamento do Falcon 180B.
Hugging Face publicou um documento de pesquisa que contém informações sobre o conjunto de dados utilizado no treinamento do Falcon 180B.
O conjunto de dados é denominado The RefinedWeb Dataset.
Esses dados são provenientes exclusivamente de informações disponíveis na Internet, coletadas da fonte aberta Common Crawl, que é um conjunto de dados da web acessível ao público.
Os dados são filtrados e passam por um processo de desduplicação para aprimorar a qualidade do que permanece.
Os pesquisadores buscam utilizar a filtragem para eliminar spam produzido por computadores, conteúdo duplicado, linguagem robótica, e dados plagiados que não refletem a linguagem natural.
O artigo de estudo aborda:
Muitos documentos apresentam sequências repetidas devido a erros de rastreamento e fontes de baixa qualidade, o que pode levar a um comportamento anormal no modelo final.
Uma parte considerável das páginas consiste em spam automático, principalmente formado por listas de palavras-chave, texto genérico ou sequências de caracteres especiais.
Esses documentos não são apropriados para serem usados na modelagem de linguagem…
Optamos por uma estratégia de eliminação de duplicatas eficaz, que inclui a comparação de ambos os conjuntos de documentos e a exclusão de sequências idênticas.
Parece ser necessário filtrar e limpar de maneira diferente o conjunto de dados, uma vez que ele consiste exclusivamente de informações da internet, ao contrário de outros conjuntos de dados que incluem informações não provenientes da web.
Os pesquisadores conseguiram filtrar o conteúdo absurdo e obtiveram um conjunto de dados que consideram tão confiável quanto conjuntos de dados mais refinados provenientes de livros piratas e outras fontes não digitais.
Eles afirmam que o seu conjunto de dados foi um sucesso ao finalizar.
Mostramos que ao realizar uma filtragem e remoção de duplicatas de forma rigorosa, é possível obter um conjunto de dados da internet contendo cinco trilhões de fichas que são adequadas para criar modelos competitivos em comparação com os LLMs mais avançados, até mesmo superando aqueles treinados em corpora cuidadosamente selecionados.
Falcon 180B não possui nenhum Guardrails.
O destaque do Falcon 180B é que nenhum ajuste de alinhamento foi realizado para evitar que ele produzisse resultados prejudiciais ou inseguros, e nada foi feito para impedir que ele distorcesse fatos e contasse mentiras.
Como resultado, é possível adaptar o modelo para produzir um tipo de resultado que não pode ser obtido com os produtos da OpenAI e do Google.
Isso está mencionado em uma parte do anúncio chamada restrições.
Hugging Face fornece conselhos:
Restrições: o modelo tem a capacidade de gerar informações imprecisas e distorcer fatos e ações.
Como não passou por nenhum ajuste avançado, pode apresentar resultados problemáticos, principalmente quando solicitado a funcionar.
Utilização Comercial da Aeronave Falcon 180B
Hugging Face autoriza a utilização comercial do Falcon 180B.
Entretanto, ele é disponibilizado com uma licença de uso limitado.
A Hugging Face encoraja aqueles interessados em utilizar o Falcon 180B a consultar um advogado previamente.
O Falcon 180B serve como um ponto inicial.
Finalmente, o modelo não foi submetido a treinamento de instrução, o que implica que é necessário treiná-lo para se tornar um chatbot de IA.
Então, trata-se de um modelo básico que precisa de melhorias para se adequar às expectativas dos usuários. Hugging Face também introduziu um modelo de chat, porém parece ser considerado apenas como “simples”.
Hugging Face fornece uma explicação:
O modelo inicial não possui um layout de solicitação. É importante notar que não se trata de um modelo de diálogo, nem foi treinado com instruções, portanto não espere que ele produza respostas em forma de diálogo. O modelo pré-treinado é uma excelente base para personalização adicional, mas provavelmente não deve ser utilizado diretamente sem ajustes adicionais.
O design do modelo de bate-papo é bastante descomplicado.
Por favor, leia a declaração oficial.
Dispersem-se. O Falcão 180B está presente.
Imagem principal fornecida por Shutterstock/Giu Studios.