O que é o colapso dos modelos de IA, sobre o qual alertam pesquisadores
Pesquisadores da área de inteligência artificial têm levantado preocupações sobre um fenômeno chamado “colapso dos modelos de IA”, que pode comprometer a eficácia das futuras gerações dessas tecnologias. O termo se refere a um processo degenerativo que ocorre quando modelos de IA são treinados utilizando dados gerados por outros modelos de IA, em vez de dados originados por humanos.
Esse fenômeno é motivo de preocupação crescente na comunidade científica, especialmente à medida que cresce a quantidade de conteúdos gerados por IA na internet e a utilização desses materiais para “retroalimentar” o treinamento dos modelos.
Em um artigo publicado na revista Nature no último mês de julho, os pesquisadores Ilia Shumailov, Zakhar Shumaylov, Yiren Zhao, Nicolas Papernot, Ross Anderson e Yarin Gal mostram como os modelos de IA apresentam resultados piores quando são treinados em dados gerados artificialmente.
A principal preocupação dos pesquisadores é que o aumento do conteúdo gerado por IA na internet crie um ciclo de retroalimentação, onde novos modelos de IA são treinados em dados gerados por modelos anteriores.
De acordo com os autores, “o desenvolvimento de modelos de linguagem de larga escala (LLMs) requer grandes quantidades de dados de treinamento. No entanto, embora os LLMs atuais tenham sido treinados em texto predominantemente gerado por humanos, isso pode mudar. Se os dados de treinamento da maioria dos modelos futuros também forem extraídos da web, eles inevitavelmente treinarão em dados produzidos por seus predecessores”.
O estudo mostra como essa prática pode resultar em uma perda progressiva de precisão e diversidade nos resultados dos modelos, em um processo que os cientistas chamam de “colapso dos modelos”.
Esse processo, conforme detalhado pelos autores, ocorre devido a três tipos de erros que se acumulam ao longo de gerações de modelos: erro de aproximação estatística, erro de expressividade funcional e erro de aproximação funcional.
Cada um desses erros contribui para a degradação gradual da qualidade dos modelos, que passam a reproduzir de forma imprecisa as informações originais, culminando no que os pesquisadores descrevem como uma "perda de informação" em estágios iniciais e uma "convergência que pouco se assemelha à original" em estágios mais avançados.