Desde que o ChatGPT se tornou “famoso” , no final de 2021, muitos têm feito profecias alarmantes sobre o impacto da Inteligência Artificial na vida humana.
Afinal, precisamos ter medo da Inteligência Artificial?
Essa é uma pergunta complexa e vou respondê-la em dois cenários diferentes e dentro de períodos especíicos de tempo. As respostas estão a seguir e, se você discorda ou ficou curioso, leia o artigo completo, onde eu explico os porquês, ok?
1º. Eu preciso ter medo de que a Inteligência Articial irá substituir o meu trabalho e eu vou perder o emprego?
- Até 2025: Provavelmente não, dependendo do seu tipo de trabalho;
- Até 2030: Provavelmente sim, dependendo do seu tipo de trabalho;
- Até 2050: É quase certo que sim, dependendo do seu tipo de trabalho.
2º. Eu preciso ter medo de que a Inteligência Artificial irá dominar a humanidade, como nos filmes Matrix e Exterminador do Futuro?
- Até 2025: Certamente não;
- Até 2030: Certamente não;
- Até 2050: Hummm… é melhor ficarmos espertos.
Talvez você esteja me criticando por ver que essas respostas são do tipo “em cima dio muro”. Em minha defesa, preciso informar que as respostas não são minhas, mas baseadas no excelente livro Inteligência Artificial X Humanos: O que a Ciência Cognitiva nos Ensina ao Colocar Frente a Frente a Mente Humana e a IA de Michael W. Eysenck e Christine Eysenck (veja mais detalhes sobre o livro e os autores no final do artigo).
O livro explora as diferenças entre a mente humana e a inteligência artificial (IA) por meio do estudo da ciência cognitiva. Nele, os autores destacam a importância funções mentais humanas, como a função de inibição, no controle da atenção e cognição. Os autores também discutem as limitações da IA em entender o conteúdo comunicativo, o viés cognitivo e a complexidade do cérebro humano. Além disso, aborda a necessidade de automotivação para que a IA possa ter domínio sobre os humanos.
Com base nesse resumo, podemos acreditar que a inteligência artificial não consegue chegar nem perto da inteligência humana, e isso é verdade porque, atualmente, os algoritmos carecem de capacidades inerentemente humanas, como consciência básica, metaconsciência, entendimento e compreensão. Entender o conteúdo comunicativo requer acesso ao conhecimento sobre o mundo e não apenas sobre a linguagem, como têm os algoritmos de LLM (Large Language Models, ou Grandes Modelos de Linguagem) que são a base do GPT, Gemini e outros.
[Aguarde: Conclusão do artigo em fase final de prdução – Prazo: 04/03/2024]