
Cada vez mais pessoas fazem isso – mesmo que essas IAs não saibam pensar de verdade. As IAs atuais, como o ChatGPT ou o Google Gemini, não têm raciocínio. Grosso modo, elas reproduzem padrões aprendidos durante seu treinamento com textos e outros conteúdos. Não é difícil encontrar exemplos de erros lógicos cometidos por essas ferramentas.
Acredito que, no futuro, as IAs serão capazes de raciocinar. Quando isso acontecer, seja hoje, seja daqui a mil anos, elas poderão superar a inteligência humana. Mas não é isso que quero discutir.
Com o avanço das IAs, muitas pessoas passaram a confiar nelas como fonte principal de informação. Isso, como aconteceu com a internet, tem seu lado positivo: acesso rápido ao conhecimento e pouco esforço para pesquisa. No entanto, o excesso de confiança pode levar as pessoas a sempre acreditarem nas respostas das IAs, mesmo que a resposta seja absurda. Essa confiança cega pode nos levar à perda do senso crítico.
Mais grave ainda é a tendência de delegar nosso raciocínio à IA. Delegar nossas capacidades para máquinas é comum, e já fizemos isso diversas vezes no passado. Diferente de meus pais, por exemplo, o único número de telefone que sei de cabeça é o meu, e não sou nem de longe capaz de navegar por Curitiba, onde vivo há mais de uma década, sem o auxílio de um GPS. Automatizar tarefas e liberar nossa memória de itens triviais como números de telefone nos permitiu focar em atividades mais humanas, como sermos criativos e resolver problemas. Mas e quando começamos a entregar justamente essas tarefas humanas às máquinas?
Sou professor de Ciência da Computação, e vejo isso com frequência crescente. Alunos usam IA para resolver exercícios de programação que deveriam resolver sozinhos. Quando chegam às provas, sem a IA para ajudar, o resultado é desastroso. Também é comum ver os chamados “engenheiros de prompt”, que muitas vezes gastam mais tempo tentando engenhar a pergunta correta para a IA do que realmente tentando resolver o problema. Muitas vezes, resolveriam mais rápido, e aprenderiam mais, se apenas tentassem resolver os problemas por si mesmos.
Gosto de pensar que nosso cérebro é como um músculo, que precisa de esforço para se manter forte. Se não o utilizarmos e o desafiarmos diariamente, ele definha. A IA pode ser uma ferramenta poderosa para aumentar nossa produtividade e criatividade. Mas, se depender dela significar abrir mão daquilo que nos torna humanos, corremos o risco de nos tornarmos dependentes e intelectualmente atrofiados.
Veja também: Liderança que protege: o papel do CEO na segurança da informação
Isso pode ainda ampliar desigualdades. Imagine um mundo distópico em que a maioria depende da IA até para tarefas simples, enquanto uma minoria domina a tecnologia e concentra poder. Em um cenário assim, muitos podem ser considerados substituíveis no mercado de trabalho, ou podem sequer ter espaço nesse mercado. Não é à toa que se discute cada vez mais a ideia de uma renda básica universal.
Por outro lado, o futuro pode ser brilhante. Imagine pedirmos para uma super IA que ela nos ensine como Carl Sagan, Richard Dawkinsou, ou como qualquer outro cientista de nossa preferência nos ensinaria. Teríamos um super professor particular, que, além de ter muito conhecimento, pode se adaptar às nossas dificuldades. Poderíamos aprender como nunca antes. A questão é se nós vamos utilizar a IA para nos aprimorar ou se teremos um super professor sem alunos para lecionar, porque estaremos muito ocupados gastando horas e horas vendo feeds de vídeos de cinco segundos gerados por IA.
A lição que fica é que pensar, criar e aprender exigem esforço. Mas abandonar esse esforço, delegando essas tarefas para máquinas, é abandonar nossa humanidade e abraçar um futuro de mediocridade, onde não seremos mais o motor do nosso próprio progresso.
Paulo Almeida, professor da Universidade Federal do Paraná (UFPR) e pesquisador do Centro de Computação Científica e Software Livre (C3SL).
Siga TI Inside no LinkedIn e fique por dentro das principais notícias do mercado.
Fonte: TI INSIDE Online - Leia mais