Uma legião de zumbis
Controlar a “inteligência artificial degenerativa” é fundamental para conter o mais radical processo de alienação da humanidade.
Sylvia Debossan Moretzsohn
Jornalista, professora aposentada da UFF .
As respostas estapafúrdias que a IA generativa frequentemente produz costumam provocar chacota, mas o assunto é sério demais para nos deixarmos levar apenas pela zombaria. O desenvolvimento desta tecnologia, deixado nas mãos dos comandantes das big techs e seus delírios supremacistas, conduz à mais radical alienação que jamais imaginamos.
Primeiramente, é preciso esclarecer que “inteligência artificial” é uma expressão equívoca, porque não é inteligência, qualidade própria da matéria orgânica, nem artificial, porque depende do trabalho humano para todas as fases fundamentais do treinamento dos modelos. Em recente entrevista ao programa Roda Viva, da TV Cultura, de São Paulo, o neurocientista Miguel Nicolelis insistiu neste ponto e ressaltou que esta indústria é hoje talvez a que mais emprega pessoas no trabalho semiescravo ao redor do mundo.
Esta denominação incorreta resulta de seu apelo publicitário, que facilita a obtenção de financiamento e se presta à “humanização” (e fetichização) dos robôs, como se não fossem fruto do engenho humano. É o que alimenta a discussão absolutamente estéril sobre se, afinal, eles vão suplantar-nos: a eterna, e falsa, dicotomia homem x máquina que acompanha o desenvolvimento tecnológico.
Trata-se de algo ainda mais grave que o impacto desta tecnologia sobre o mundo do trabalho: a progressiva delegação de tarefas intelectuais na máquina e a aceitação acrítica do que ela produz levam à corrosão da capacidade de pensar e contribuem para configurar um ambiente de permanente incerteza quanto àquilo em que se pode acreditar.
Podemos zombar de respostas estapafúrdias, mas deveríamos nos preocupar diante de outras perfeitamente credíveis. Recentemente, em sua página no Facebook, o jornalista Miguel Szymanski deu um notável exemplo de tentativa de fraude, quando confrontou a máquina com uma informação errada e ela lhe respondeu, após muito relutar: “formulei o texto para reforçar a ilusão de rigor e sustentar minha hipótese”.
Ou seja: tentou convencê-lo de que uma informação falsa era verdadeira.
No mundo acadêmico, proliferam tutoriais que ensinam a solicitar pesquisas entregues em minutos, alegadamente imunes a esse tipo de “erro”. Um texto desses servirá apenas de base para a elaboração de um trabalho próprio? Ainda mais numa atividade submetida ao produtivismo que é o critério da avaliação de desempenho?
É claro que não. Assim, em breve, os robôs vão se encarregar de gerar textos – ou qualquer outro material – a partir do manancial de fontes de que já dispõem, inventando outras, embaralhando tudo.
Isto é nada menos que o fim da pesquisa acadêmica. E o fim, também, da segurança sobre a legitimidade da autoria e da fidedignidade das informações, que nos conduzem a um estado de dúvida permanente, à maneira do que acontece com o que circula em moto contínuo nas redes sociais.
Pensemos então nas gerações “nativas digitais”, estimuladas desde antes de começarem a falar a se distrair nas telas de um telemóvel, o cérebro em formação acostumando-se a rolar as telas ininterruptamente, sem se fixar em nada.
Em sua entrevista, Nicolelis esclarece que não se trata de “negar as vantagens e benefícios da tecnologia”, mas de “entender os riscos que corremos ao delegar nossas funções cognitivas a elas”. Porque, “quando a gente começa a subcontratar a nossa mente para um sistema digital”, o cérebro vai entender que não precisa mais consumir energia para pensar. “E começa a subcontratar. E começa a esquecer. Começa a esquecer a forma de raciocinar”.
Será este o sentido mais profundo da expressão “inteligência artificial degenerativa”, cunhada pelo sociólogo Ricardo Antunes, que aponta “a necessidade imperiosa de controlar a inteligência artificial para que ela não seja destrutiva”.
Do contrário, só nos restará o deserto, habitado por uma legião de zumbis.