Pular para o Conteúdo
Este artigo foi traduzido do japonês usando IA
Ler em japonês
Este artigo está em Domínio Público (CC0). Sinta-se à vontade para usá-lo livremente. CC0 1.0 Universal

Aprendizagem de Máquina por Linguagem Natural

A aprendizagem de máquina tradicional opera num paradigma em que os computadores, aptos à computação numérica, aprendem a partir de dados numéricos e adquirem parâmetros numéricos.

Por outro lado, somos capazes de aprender não apenas através de mecanismos numéricos, mas também através da linguagem. Organizamos e registamos experiências como palavras, para depois recordar ou ler essas palavras e utilizá-las.

Os grandes modelos de linguagem podem, de forma semelhante, descrever conhecimento usando palavras e utilizar palavras ao lê-las.

Ao aproveitar os grandes modelos de linguagem, que são processadores de linguagem natural, a aprendizagem de máquina baseada em linguagem natural torna-se possível, em vez de apenas a aprendizagem de máquina baseada em números.

Consequentemente, o advento dos grandes modelos de linguagem abriu um novo campo: a aprendizagem de máquina por linguagem natural.

O pré-treino de grandes modelos de linguagem é a aprendizagem de máquina numérica tradicional. A aprendizagem de máquina por linguagem natural aqui descrita refere-se a uma nova forma de aprendizagem de máquina que utiliza modelos de linguagem grandes pré-treinados.

Modelo Básico de Aprendizagem de Máquina por Linguagem Natural

A aprendizagem de máquina por linguagem natural possui aspetos que são semelhantes e inteiramente diferentes da aprendizagem de máquina numérica tradicional.

Primeiro, para se ter uma ideia da aprendizagem de máquina por linguagem natural, explicaremos as partes que são semelhantes à aprendizagem de máquina numérica tradicional como um modelo básico.

A partir de agora, referir-nos-emos a um grande modelo de linguagem pré-treinado como LLM. Por favor, note que os parâmetros do LLM não mudam de todo durante este processo de aprendizagem.

O modelo básico é a aprendizagem supervisionada, visando um problema de classificação.

Vários pares de frases de entrada e as suas classificações são preparados como respostas corretas para os dados de treino.

Por exemplo, digamos que uma empresa tem um Departamento de Assuntos Gerais e um Departamento de Assuntos Administrativos.

Estes dois departamentos têm uma divisão de tarefas. Para frases de entrada como "A lâmpada do escritório está queimada", "Esqueci-me do meu cartão de acesso" ou "Quero reservar o salão principal na sede", a classificação indica se o Departamento de Assuntos Gerais ou o Departamento de Assuntos Administrativos é responsável.

A partir destes dados de treino, apenas as frases de entrada são extraídas e alimentadas ao LLM.

Aqui, como prompt de sistema, restringimos intencionalmente a resposta, afirmando: "Por favor, responda qual departamento, Assuntos Gerais ou Assuntos Administrativos, é responsável por esta consulta. Não inclua quaisquer caracteres para além de 'Assuntos Gerais' ou 'Assuntos Administrativos' na sua resposta."

Inicialmente, o LLM gerará respostas sem qualquer conhecimento desta empresa. Naturalmente, algumas respostas estarão incorretas, enquanto outras poderão estar corretas por acaso.

Para cada resposta, o sistema professor determina se está correta ou incorreta. Em seguida, a combinação da frase de entrada, a resposta do LLM e o resultado do julgamento é guardada numa base de conhecimento.

Este processo é repetido para cerca de metade dos dados de treino.

Para a restante metade dos dados de treino, o mesmo processo é realizado, mas desta vez toda a informação registada na base de conhecimento é adicionada ao prompt de sistema para o LLM.

Neste ponto, a base de conhecimento contém informações sobre a divisão de tarefas entre os departamentos de Assuntos Gerais e Assuntos Administrativos desta empresa, pelo que a probabilidade de obter respostas corretas deve ser maior do que com a primeira metade dos dados.

Desta forma, um sistema que combina o LLM e a base de conhecimento pode aprender a divisão de tarefas entre os departamentos de Assuntos Gerais e Assuntos Administrativos desta empresa.

O mecanismo de aprendizagem em si é semelhante à aprendizagem de máquina numérica tradicional. A diferença é que os resultados da aprendizagem são refletidos na base de conhecimento, e não nos parâmetros da rede neural dentro do LLM. E, linguagem natural, não números, é registada na base de conhecimento.

Este é o modelo básico de aprendizagem de máquina por linguagem natural.

Realidade do Modelo Básico

Como qualquer pessoa que utiliza LLMs rapidamente perceberá, este modelo básico carece de realismo.

Isso ocorre porque, em vez de se dar ao trabalho de ter um sistema professor para determinar respostas corretas e incorretas, bastaria inserir os próprios dados de treinamento no prompt do sistema desde o início.

No entanto, ao aplicar o modelo básico e alterar ligeiramente o cenário, ele ganha realismo.

Por exemplo, suponha que os departamentos de Assuntos Gerais e Assuntos Administrativos estabeleçam colaborativamente um balcão de informações, e que humanos encaminhem individualmente as consultas recebidas para o departamento apropriado.

Um sistema simples pode ser criado para adicionar essas consultas e seus resultados de encaminhamento a uma base de conhecimento.

Então, usando essa base de conhecimento, o LLM pode assumir o lugar dos humanos no encaminhamento de novas consultas para os departamentos.

Neste caso, se o LLM encaminhar incorretamente uma consulta destinada aos Assuntos Administrativos para os Assuntos Gerais, a pessoa responsável pelos Assuntos Gerais reencaminhará a consulta de volta para os Assuntos Administrativos. Essa informação de reencaminhamento também é registrada na base de conhecimento.

Este simples mecanismo para registar os registos de encaminhamento, combinado com o LLM e o sistema de base de conhecimento, tornar-se-ia um modelo supervisionado realista para a aprendizagem de máquina por linguagem natural.

O ponto chave aqui, novamente, é que os parâmetros da rede neural dentro do LLM não mudam de todo. E os resultados da aprendizagem por feedback não são valores numéricos, mas sim coleções de frases em linguagem natural.

Além disso, este sistema é inequivocamente um sistema de aprendizagem de máquina, não de aprendizagem humana.

Portanto, esta é uma nova forma de aprendizagem de máquina: aprendizagem de máquina através da linguagem natural.

Pontos Fortes da Aprendizagem de Máquina por Linguagem Natural

Ao contrário da aprendizagem de máquina numérica, a aprendizagem por linguagem natural oferece muitas vantagens.

Em poucas palavras, a sua característica definidora é a sua esmagadora eficiência de aprendizagem.

A aprendizagem de máquina numérica geralmente requer uma grande quantidade de dados de treino e aprendizagem iterativa. O pré-processamento dos dados de treino também é necessário.

É necessária uma grande quantidade de dados de treino porque as características que se desejam aprender não estão contidas numa única peça de dados, mas estão distribuídas por um grande volume de dados.

Por esta razão, são necessários dados de treino da ordem do quadrado da dimensão das características verdadeiramente desejadas.

A aprendizagem iterativa é necessária porque a mudança nos parâmetros durante um único ciclo de feedback deve ser pequena para garantir que os parâmetros da rede neural sejam aprendidos adequadamente sem cair em ótimos locais.

O pré-processamento dos dados de treino, como a normalização e a extração de arestas, é necessário para realçar as características verdadeiramente desejadas. Este pré-processamento também requer um esforço significativo.

Por exemplo, se a divisão de tarefas entre os departamentos administrativo e de assuntos gerais fosse aprendida usando uma rede neural tradicional, e as suas características fossem de 50 dimensões, seriam necessários pelo menos 1000 ou mais pontos de dados de treino. Além disso, estes mais de 1000 pontos de dados poderiam precisar de ser iterados aproximadamente 100 vezes para alcançar uma precisão de aprendizagem adequada.

Além disso, se estes 1000 pontos de dados contiverem palavras estranhas, variações na ortografia das palavras ou uma variedade de ordens de palavras e sintaxe, a eficiência da aprendizagem diminuirá, ou serão aprendidas características irrelevantes.

Portanto, o pré-processamento para remover palavras estranhas, padronizar o vocabulário para eliminar variações e unificar a ordem das palavras e a sintaxe é indispensável.

Por outro lado, a aprendizagem de máquina por linguagem natural requer menos dados de treino, não requer iteração com os mesmos dados de treino e, em muitos casos, não requer pré-processamento.

Se as características da divisão de tarefas entre os departamentos administrativo e de assuntos gerais forem de 50 dimensões, 50 informações correspondentes a cada dimensão são frequentemente suficientes.

Além disso, isto não significa que sejam necessárias 50 frases separadas.

Uma única frase como "As tarefas relacionadas com A, B, C e D são tratadas pelo departamento administrativo" pode incluir informações para quatro dimensões.

Além disso, ao abstrair a linguagem, a informação de múltiplas dimensões pode ser agregada. Uma única frase como "O departamento administrativo é responsável por consumíveis de construção e manutenção de equipamentos" agrega informações de uma vasta gama de dimensões, incluindo a substituição de lâmpadas e avarias em portas automáticas.

Esta abstração aproveita o conhecimento pré-treinado e as capacidades de raciocínio do LLM, reduzindo assim a quantidade de dados de treino necessários.

E, fundamentalmente, a aprendizagem por linguagem natural não requer aprendizagem iterativa. Uma vez que a frase acima mencionada é adicionada à base de conhecimento, a aprendizagem está completa.

Além disso, o pré-processamento do conhecimento não é necessário. Mesmo que as descrições dos departamentos administrativo ou de assuntos gerais estejam misturadas com várias outras frases, elas ainda podem ser usadas como conhecimento.

Alternativamente, dados brutos, como registos de consultas e atribuições como no exemplo anterior, podem ser imediatamente utilizados como dados de treino sem pré-processamento.

Desta forma, a aprendizagem de máquina por linguagem natural pode aprender de forma muito mais eficiente do que a aprendizagem de máquina numérica.

Conclusão

Comparadas com as capacidades de computação numérica de alta velocidade dos computadores, as capacidades de processamento de linguagem natural dos grandes modelos de linguagem são bastante lentas.

No entanto, a aprendizagem de máquina por linguagem natural permite uma aprendizagem mais eficiente em comparação com a aprendizagem de máquina numérica.

Esta eficiência supera em muito a lacuna entre as capacidades de computação numérica de alta velocidade e as lentas capacidades de processamento de linguagem natural.

Além disso, os grandes modelos de linguagem, que passaram por uma evolução surpreendente através da aprendizagem numérica, parecem estar a aproximar-se de um limite na melhoria das capacidades através de um simples aumento de escala, de acordo com as leis de escala.

Nesse caso, é altamente concebível que o foco se desloque para a melhoria das capacidades através da aprendizagem de máquina por linguagem natural.