Pesquisadores de Stanford apresentaram o Alpaca, uma imitação do ChatGPT que qualquer um pode treinar por um preço ridiculamente baixo. Os modelos de linguagem estão à beira de serem democratizados?
Um dos principais desafios dos LLMs (Large Language Models) como o GPT-4 é o seu treinamento. Para que esses algoritmos baseados em aprendizado de máquina possam conversar com humanos, você deve começar fazendo com que eles engulam uma verdadeira montanha de dados. É um processo demorado e, acima de tudo, extremamente caro, pois envolve a execução de computadores superpotentes em velocidade máxima por longos períodos de tempo.
Pesquisadores do Center for Research on Foundation Models (CRFM) em Stanford agora querem reverter essa tendência. Apresentaram o Alpaca, um novo modelo bastante próximo do essencial ChatGPT.
A diferença é que o treinamento custou apenas $ 600 ! Esta é uma figura extremamente impressionante neste contexto. Em comparação, a OpenAI gastou milhões de dólares treinando seu chatbot.
Um modelo para imitá-los todos
Para conseguir isso, os pesquisadores confiaram no LLaMA 7 B. É um modelo de linguagem muito menor do que seus equivalentes baseados em GPT, o que significa que oferece significativamente menos parâmetros.
Este termo refere-se a variáveis internas, não explicitamente definidas pelos desenvolvedores, cujo valor o algoritmo deve estimar a partir dos dados fornecidos a ele durante o treinamento. Em outras palavras, é uma métrica muito importante para estimar o “poder” de um modelo de IA.
Tecnicamente, o Alpaca deve ser muito menos eficiente que o ChatGPT. Mas os pesquisadores encontraram um truque para reduzir consideravelmente essa lacuna sem entrar na corrida pelo número de parâmetros. Em essência eles têm treinou este modelo bastante modesto para imitar o referencial da disciplina.
Para conseguir isso, eles começaram escrevendo um conjunto de 175 consultas de texto (ou rápido) que propuseram ao chatbot OpenAI. Observe que ainda era GPT-3.5. A versão 4, muito mais poderosa graças à integração da multimodalidade, ainda não estava disponível quando este trabalho foi realizado.
IA: O GPT-4 chega na próxima semana e será multimodal!
Eles então compilaram as respostas para cada uma dessas perguntas. Obtiveram assim 175 pares pedido/resposta que serviram de modelo para o resto dos eventos. A equipe então alimentou o algoritmo novamente com esses pares, desta vez pedindo para gerar variantes deles no mesmo formato.
Este conjunto de dados foi então usado para realizar o treinamento complementar do LLaMA, o pequeno modelo do Meta. Para atingir essa etapa, os pesquisadores simplesmente alugaram um servidor de processamento em nuvem. Graças a uma máquina equipada com 8 placas Nvidia A-100, eles conseguiram realizar esse pós-treinamento em três curtas horas.
Uma abordagem eficiente e econômica
Essa abordagem pode parecer sinuosa e contra-intuitiva. Mas permitiu que os autores do estudo obtivessem pouco mais de 50.000 amostras de conversas muito rapidamente. E, acima de tudo, conseguiram fazê-lo por um preço ultracompetitivo. A geração dos dados iniciais usando o GPT custou cerca de US$ 500, além de outra taxa de processamento em nuvem de US$ 100.
Ainda tínhamos que testar o resultado. Então, eles compararam o desempenho de seu Alpaca com o próprio GPT. Os dois modelos foram colocados em competição em um conjunto de 179 problemas diversos e variados. O menu incluía tarefas como escrever e-mails ou postagens em redes sociais. E contra todas as probabilidades, o Alpaca se impôs de cabeça curta, com 90 vitórias contra 89 do GPT.
” Ficamos bastante surpresos com o resultado sabendo do pequeno tamanho do nosso modelo e da modesta quantidade de instruções “, explicam os pesquisadores em sua publicação. ” Também pudemos testar o Alpaca interativamente e descobrimos que ele se comportou de maneira semelhante ao GPT-3.5 em um conjunto diversificado de solicitações. »
Qualquer um agora pode treinar seu modelo de linguagem
Reconhecidamente, essa pontuação não é totalmente representativa do desempenho geral dos dois algoritmos. Em termos absolutos, o GPT permanece muito mais eficiente. Mas o fato de um modelo bastante rudimentar pode adiar um modelo que é exponencialmente mais poderoso e caro para treinar nada fora do comum.
Além disso, foi apenas uma primeira tentativa muito exploratória. Os autores estão confiantes de que ainda poderiam ter reduzido enormemente o custo, o tempo e a energia necessários para o treinamento com alguns esforços de otimização. E alguns de seus colegas já provaram que eles estavam certos.
De fato, a equipe de Stanford compartilhou suas 52.000 perguntas e o código associado na plataforma colaborativa GitHub. Isso permitiu que outros especialistas na disciplina o experimentassem. E outra equipe identificada pela NewAtlas alcançou rapidamente um resultado comparável com ainda menos recursos. Os autores conseguiram concluir o treinamento de sua própria versão do Alpaca em apenas cinco horas. E eles conseguiram isso usando apenas… um Raspberry Pi e uma placa de vídeo RTX 4090 da Nvidia.
Não sei o que fazer com esse desenvolvimento. Alpaca é surpreendentemente muito bom. A alegação aqui é que o treinamento pode ser feito em 5 horas em um único RTX 4090. Os modelos do tipo GPT foram democratizados da noite para o dia?!
— Carlos E. Perez (@IntuitMachine) 16 de março de 2023
À primeira vista, você pode pensar que esses são trabalhos de nicho. Mas as implicações dessa abordagem baseada na imitação são, na verdade, bastante profundas. Em essência, isso significa que qualquer pessoa com habilidades técnicas agora pode treinar seu próprio modelo de idioma personalizado. Não há necessidade de ter um orçamento substancial, muito tempo e equipamentos avançados. Os únicos obstáculos reais, agora, são as condições de uso definidas pelos desenvolvedores dos modelos originais.
enorme potencial
É uma perspectiva ao mesmo tempo excitante e bastante assustadora. Por um lado, poderia permitir que muitos pequenos gênios desenvolvessem ferramentas revolucionárias sem depender de uma grande multinacional.
Mas, por outro lado, também pudemos ver uma série de programas surgindo com, digamos… objetivos questionáveis. Por exemplo, é fácil imaginar que um hacker especializado em phishing poderia aumentar consideravelmente seu poder de ataque com um gerador de texto feito sob medida. E esta é apenas a ponta de um grande iceberg.
Além do aspecto ético, não é impossível que este trabalho leve a uma transformação significativa no mundo da IA. Se esta técnica se democratizar, quem sabe um dia, Modelos de Linguagem Grandes como o GPT serão apenas bases, bases de trabalho a partir das quais todos podem treinar suas próprias IAs feitas sob medida. Será, portanto, fascinante acompanhar a evolução desta abordagem; pode crescer cada vez mais rápido agora que o GPT-4 está disponível.