No domínio em constante evolução da inteligência artificial (IA), os modelos de linguagem passaram da compreensão da linguagem para se tornarem solucionadores de problemas versáteis, impulsionados principalmente pelo conceito de aprendizagem no contexto.

    O Algoritmo de Pensamentos (AoT) da Microsoft leva essa evolução ainda mais longe, permitindo raciocínio, planejamento e resolução de problemas matemáticos semelhantes aos humanos, de maneira eficiente em termos energéticos.

    Ao usar exemplos algorítmicos, o AoT libera o potencial dos modelos de linguagem para explorar inúmeras ideias com apenas algumas consultas. Neste artigo, exploramos a evolução das abordagens de aprendizagem no contexto baseadas em prompts e nos aprofundamos em como o AoT está transformando a IA para um raciocínio semelhante ao humano.

    Se você já estiver familiarizado com aprendizagem contextual, prompts padrão e prompts de cadeia de pensamento, sinta-se à vontade para avançar para aprender como o AoT une essas abordagens.

    Aprendizagem em contexto

    A aprendizagem em contexto é um processo transformador que visa elevar os modelos linguísticos de meros especialistas em linguagem a solucionadores de problemas hábeis. Para compreender melhor este conceito, imagine estes modelos como estudantes que aprendem línguas num ambiente escolar. Inicialmente, sua educação envolve principalmente a imersão em grandes quantidades de texto para adquirir conhecimento sobre palavras e fatos.

    Mas então, a aprendizagem em contexto leva estes alunos para o próximo nível, permitindo-lhes adquirir competências especializadas. Pense nisso como enviar esses alunos para programas de treinamento especializados, como faculdade ou escola profissionalizante. Durante esta fase, eles se concentram no desenvolvimento de habilidades específicas e em se tornarem proficientes em diversas tarefas, como tradução de idiomas (por exemplo, Seamless M4T da Meta), geração de código ou resolução de problemas complexos.

    No passado, para tornar os modelos de linguagem especializados, tínhamos que treiná-los novamente com novos dados, durante um processo conhecido como ajuste fino. Isto tornou-se difícil à medida que os modelos se tornaram mais extensos e consumiam mais recursos. Para resolver esses problemas, surgiram métodos baseados em prompts. Em vez de ensinar novamente todo o modelo, apenas damos instruções claras, como dizer-lhe para responder a perguntas ou escrever código.

    Esta abordagem destaca-se pelo seu excepcional controle, transparência e eficiência em termos de dados e recursos computacionais, tornando-a uma escolha altamente prática para uma ampla gama de aplicações.

    Evolução da aprendizagem baseada em prompts

    Esta seção apresenta brevemente a evolução da aprendizagem baseada em prompts, desde os prompts padrão até a Cadeia de Pensamento (CoT) e a Árvore de Pensamento (ToT).

    Solicitação padrão

    Em 2021, pesquisadores conduziu um experimento inovadorlevando um único modelo generativamente pré-treinado, T0, a se destacar em 12 tarefas diferentes de PNL.

    Essas tarefas envolviam instruções estruturadas, como a usada para implicação: “Se {premissa} é verdadeira, também é verdade que {hipótese}? ||| {envolvido}.”

    Os resultados foram surpreendentes, pois o T0 superou os modelos treinados apenas para tarefas únicas, destacando-se até mesmo nas novas. Este experimento introduziu a abordagem baseada em prompts, também conhecida como entrada-saída ou prompts padrão.

    A solicitação padrão é uma técnica simples em que você apresenta alguns exemplos relacionados à tarefa ao modelo antes de buscar uma resposta. Por exemplo, você pode solicitar que ele resolva equações como “2x + 3 = 11” (Solução: “x = 4”). É eficaz para tarefas simples, como resolver equações matemáticas simples ou tradução. No entanto, como a solicitação padrão depende de instruções isoladas, ela enfrenta dificuldades com a compreensão mais ampla do contexto e com o raciocínio complexo em várias etapas, tornando-a ineficiente para se destacar em problemas matemáticos complexos, raciocínio de bom senso e tarefas de planejamento.

    As limitações da solicitação padrão deram origem à solicitação CoT, que aborda essas limitações.

    Solicitação de cadeia de pensamento (CoT)

    CoT é uma técnica de estímulo que capacita grandes modelos de linguagem (LLMs) para resolver problemas, dividindo-os em uma série de etapas intermediárias, levando a uma resposta final. Esta abordagem melhora as capacidades de raciocínio do modelo, incentivando-o a responder a problemas complexos e com várias etapas, de uma forma que se assemelha a uma cadeia lógica de pensamento.

    A solicitação do CoT mostra-se particularmente valiosa para ajudar os LLMs a superar tarefas de raciocínio que envolvem pensamento lógico e múltiplas etapas, como problemas aritméticos e questões relacionadas ao raciocínio de bom senso.

    Por exemplo, considere usar o prompt CoT para resolver um problema de física complexo, como calcular a distância que um carro percorre durante a aceleração. Os prompts do CoT guiam o modelo de linguagem através de etapas lógicas, começando com a velocidade inicial do carro, aplicando a fórmula da distância e simplificando os cálculos. Isso ilustra como o prompt CoT disseca problemas intrincados passo a passo, auxiliando o modelo a alcançar um raciocínio preciso.

    Solicitação de Árvore de Pensamento (ToT)

    Em cenários específicos, entretanto, a resolução de problemas pode envolver múltiplas abordagens. Métodos convencionais passo a passo, como o CoT, podem restringir a exploração de diversas soluções. Solicitação da Árvore do Pensamento aborda esse desafio empregando prompts estruturados como árvores de decisão, permitindo que modelos de linguagem contemplem múltiplos caminhos.

    Este método capacita os modelos para enfrentar problemas de vários ângulos, ampliando o leque de possibilidades e incentivando soluções criativas.

    Desafios da aprendizagem baseada em prompts

    Embora as abordagens baseadas em prompts tenham, sem dúvida, reforçado a capacidade matemática e de raciocínio dos modelos de linguagem, elas vêm com um desvantagem notável—um aumento exponencial na demanda por consultas e recursos computacionais.

    Cada consulta direcionada a um modelo de linguagem online como o GPT-4 incorre em um custo financeiro e contribui para a latência, um gargalo crítico para aplicações em tempo real. Estes atrasos acumulativos têm o potencial de minar a eficiência da solução. Além disso, as interações contínuas podem sobrecarregar os sistemas, resultando potencialmente em restrições de largura de banda e redução da disponibilidade do modelo. Também é crucial considerar o impacto ambiental; consultas persistentes amplificam o consumo de energia de data centers que já consomem muita energia, exacerbando sua pegada de carbono.

    Algoritmo de estímulo ao pensamento

    A Microsoft assumiu o desafio de melhorar métodos baseados em rapidez em relação a custos, eficiência energética e tempo de resposta. Eles introduziram o Algoritmo de Pensamento (AoT), uma abordagem inovadora que reduz a necessidade de muitos prompts em tarefas complexas, mantendo o desempenho.

    AoT difere dos métodos de prompt anteriores porque instrui modelos de linguagem a gerar pseudocódigo específico de tarefa, semelhante a instruções claras do tipo Python.

    Esta mudança enfatiza a utilização dos processos de pensamento internos do modelo, em vez de depender de entradas e saídas potencialmente não confiáveis ​​em cada etapa. AoT também incorpora exemplos contextualizados inspirados em algoritmos de pesquisa como Primeira pesquisa em profundidade e Amplitude da primeira pesquisaajudando o modelo a dividir problemas complexos em etapas gerenciáveis ​​e a identificar caminhos promissores a seguir.

    Embora o AoT compartilhe semelhanças com a abordagem da Árvore do Pensamento (ToT), ele se distingue por sua notável eficiência. O ToT geralmente requer uma infinidade de consultas de Modelo de Linguagem (LLM), ocasionalmente chegando a centenas para um único problema. Em contraste, o AoT enfrenta esse desafio orquestrando todo o processo de pensamento dentro de um único contexto.

    AoT é excelente em tarefas que se assemelham a problemas de busca em árvore. Nestes cenários, o processo de resolução de problemas envolve dividir o problema principal em componentes menores, conceber soluções para cada parte e determinar quais caminhos aprofundar.

    Em vez de usar consultas separadas para cada subconjunto do problema, o AoT aproveita as habilidades iterativas do modelo para resolvê-los de uma forma unificada. Essa abordagem integra perfeitamente insights de contextos anteriores e demonstra sua habilidade em lidar com questões complexas que exigem um mergulho profundo no espaço de soluções.

    O resultado final

    O Algoritmo de Pensamentos (AoT) da Microsoft está transformando a IA, permitindo raciocínio, planejamento e resolução de problemas matemáticos semelhantes aos humanos, de maneira eficiente em termos energéticos. AoT aproveita exemplos algorítmicos para capacitar modelos de linguagem para explorar diversas ideias com apenas algumas consultas.

    Ao mesmo tempo que se baseia na evolução da aprendizagem baseada em prompts, o AoT se destaca por sua eficiência e eficácia na abordagem de tarefas complexas. Não só melhora as capacidades de IA, mas também mitiga os desafios colocados pelos métodos de consulta que consomem muitos recursos.

    Com o AoT, os modelos de linguagem podem se destacar no raciocínio em várias etapas e resolver problemas complexos, abrindo novas possibilidades para aplicativos baseados em IA.

    Share.

    Comments are closed.