ChatGPT por ele mesmo: entrevista com o robô do momento

Laptop ligado sendo fechado em um ambiente escuro.
Foto: Ales Nesetril / Unsplash

Software de inteligência artificial ainda é limitado e representa risco de disseminação de informações erradas, falsas, distorcidas e desatualizadas

Desde que foi lançado, em novembro de 2022, só se fala nele: o ChatGPT virou o assunto do momento.

Já virou pauta em todos os portais de notícias, e gerou preocupação na academia, nas escolas e no Google (com razão, já que a rival Microsoft está investindo bilhões nesta tecnologia de inteligência artificial).

Para mim, que sou jornalista e escritora, e dediquei os últimos 20 anos da minha vida (mais da metade dela!) a produzir conteúdos para a internet, feitos a partir de cuidadosa pesquisa e apuração, o que mais preocupa neste software são três coisas:

  1. o fato de ele que não fornece as fontes para suas respostas
  2. o fato de que ele não consegue verificar a veracidade de suas respostas, e muitas vezes divulga, por isso, informações falsas, desatualizadas, distorcidas ou descontextualizadas
  3. o fato de que ele contribui para que os humanos PENSEM menos.
Imagem representando um cérebro em um fundo iluminado lilás.
Foto: Milad Fakurian / Unsplash

Sim, pensem menos. Se a pessoa pode digitar uma pergunta e ter uma resposta fácil e à mão, em questão de segundos, logo ela vai desaprender a fazer coisas tão importantes quanto inferir, contextualizar, interpretar e refletir sobre dados e informações.

Ah, mas o Google já faz isso. De certa forma, faz mesmo. O Google contribuiu bastante para tornar nossas memórias mais fracas e preguiçosas. Se você não exercita uma parte do cérebro, ela enferruja, assim como os músculos das pernas.

Mas é bem diferente você fazer uma pergunta ao Google e ele te dar uma lista de links com supostas respostas, cuja origem você pode rastrear, e que ainda precisa ler, interpretar e comparar e pensar, do que perguntar a um chatbot e ele te dar uma resposta “pronta”, mas sem nenhuma fonte para essa informação.

Ah, mas você está se fechando às maravilhas da nova tecnologia. Pode ser que eu esteja com uma visão equivocada ou estreita demais diante de algo que pode ser incrivelmente útil para a humanidade. No mínimo, pessimista com os riscos que essa tecnologia representa para o emburrecimento da civilização, para a disseminação de informações não confiáveis etc.

Também acho que, daqui a muito pouco tempo, esta realidade estará dada, será inexorável, assim como os smartphones grudados nas mãos de todo mundo (não faz tanto tempo assim que não eram, lembra?). Mas, até lá, temos que abrir espaço às críticas, inclusive para que haja aprimoramentos, discussões éticas, formas de regulação.

Antes que o estrago já esteja feito.

Teclado de computador, com símbolo da Microsoft à vista.
Microsoft está investindo bilhões no ChatGPT. Foto: Tadas Sar / Unsplash

A entrevista que fiz com o ChatGPT

Uma coisa eu não posso falar sobre o ChatGPT: ele não mente sobre as próprias limitações.

Ao menos foi o que constatei quando fiz uma “entrevista” com ele ontem. Ele foi sincero ao reconhecer que:

  • não consegue escrever com a qualidade de um humano,
  • não chega perto da nossa capacidade criativa,
  • não tem como confirmar a veracidade do que nos informa,
  • pode contribuir para a disseminação de fake news,
  • não tem como informar as fontes de suas respostas
  • e pode fazer com que os humanos pensem menos.

Veja, a seguir, as perguntas que eu fiz e as respostas que ele me deu.

Limitações para criar textos

A primeira coisa que perguntei é se o ChatGPT consegue criar conteúdos originais, como os humanos fazem, sem usar materiais pré-existentes.

Ele respondeu que sua capacidade de criar conteúdo novo é “limitada”. “Não posso criar conteúdos completamente novos ou originais. Isso é algo que ainda está além do alcance da inteligência artificial atual, e é uma capacidade exclusiva dos seres humanos“.

Veja a resposta completa:

Pergunta ao Chat GPT sobre sua capacidade de criar conteúdos originais. Resposta é que essa capacidade é limitada e que é exclusiva dos seres humanos.

Criatividade dos humanos é incomparável

A seguir, perguntei se a IA pode ser criativa.

O ChatGPT respondeu que consegue criar “soluções ótimas”, mas não “criativas no sentido humano”. Veja a resposta inteira:

Perguntei se a IA pode ser criativa. O Chat GPT respondeu que consegue criar "soluções ótimas", mas não "criativas no sentido humano".

ChatGPT não entende emoção

Em seguida, perguntei se o ChatGPT consegue escrever com emoção. Como um humano consegue, certo?

Ele respondeu que não consegue “compreender completamente a complexidade das emoções humanas”, no máximo simulá-las. Veja a resposta inteira:

Perguntei se o Chat GPT consegue escrever com emoção. Como um humano consegue. Ele respondeu que não consegue "compreender completamente a complexidade das emoções humanas", no máximo simulá-las.

Qualidade dos textos do ChatGPT é bem pior

Para fechar esse bloco de perguntas, questionei ao ChatGPT se ele consegue escrever com a mesma qualidade de um humano.

E ele respondeu que suas respostas “não são necessariamente tão originais ou criativas quanto as de um humano”.

Para piorar, admitiu que muitas de suas respostas podem não ser nem precisas nem completas e que podem conter erros ou imprecisões:

Questionei ao Chat GPT se ele consegue escrever com a mesma qualidade de um humano. E ele respondeu que suas respostas "não são necessariamente tão originais ou criativas quanto as de um humano". E admitiu que muitas de suas respostas podem não ser nem precisas nem completas e que podem conter erros ou imprecisões.

Erros e fake news nas respostas do ChatGPT

Preocupada com a última resposta que ele me deu, perguntei ao ChatGPT se ele divulga muitas respostas erradas e fake news.

E ele: “Às vezes posso cometer erros ou fornecer informações imprecisas”. E ainda soltou esta: “Não tenho a capacidade de verificar a veracidade das informações que eu forneço“. Leia a resposta na íntegra:

Perguntei ao Chat GPT se ele divulga muitas respostas erradas e fake news. E ele: "Às vezes posso cometer erros ou fornecer informações imprecisas". E ainda soltou esta: "Não tenho a capacidade de verificar a veracidade das informações que eu forneço".

Prossegui então com este tema que me é tão caro, já que a base do jornalismo é justamente a checagem das informações.

E ele respondeu que suas informações “pode [sic, porque ele comete muitos erros de português também] incluir informações desatualizadas, imprecisas ou falsas”. Leia a resposta toda:

Chat GPT responde que não é capaz de verificar veracidade das respostas que dá.

Disseminação de fake news: um risco

Diante das duas últimas respostas, perguntei ao ChatGPT sobre uma das minhas grandes preocupações em relação a ele: “Você contribui para disseminar fake news no mundo?“.

Ao que ele me respondeu que não de forma intencional (nisso é melhor que muito humano, cá pra nós), mas que pode, sim, “fornecer informações imprecisas ou desatualizadas sem saber”. Leia a resposta toda:

Perguntei ao Chat GPT sobre uma das minhas grandes preocupações em relação a ele: "Você contribui para disseminar fake news no mundo?". Ao que ele me respondeu que não de forma intencional, mas que pode, sim, "fornecer informações imprecisas ou desatualizadas sem saber".

Desatualização das respostas do ChatGPT

É sabido que o ChatGPT é ancorado em um banco de dados que só vai até 2021. O que você perguntar a ele de 2022 ou 2023, por exemplo, ele não saberá. Claro que pode e deve haver uma atualização nisso em breve, mas, por enquanto, esta é uma lacuna grave.

Ele ainda não sabe, por exemplo, que Bolsonaro não é mais o presidente do Brasil. E que a mortalidade por Covid-19 já caiu significativamente no mundo todo, assim como avançou muito a vacinação contra a doença. Não tem nenhum dos relatórios mais recentes de economia, como as taxas de inflação e o PIB dos países no último ano. Jornalisticamente, 2021 é quase a pré-história, de tão atrasado.

Fiz o teste com a pergunta abaixo, sobre os dados de 2022 sobre a desigualdade social no Brasil, e ele escorregou:

Perguntei ao Chat GPT sobre dados de 2022 e ele não soube responder, porque seu banco de dados vai até 2021 apenas.

Fui além, e perguntei quando ele teria os dados de 2022, e ele cometeu um erro grosseiro, que admitiu depois do meu puxão de orelhas:

Chat GPT diz que 2022 é o "futuro", mas já estamos em 2023 na conversa.

Falta de fontes nas respostas do ChatGPT

Para não deixar de registrar isso aqui, fiz uma pergunta qualquer para o ChatGPT só para testar a origem das suas fontes.

Além de não informar a fonte precisa da resposta (como o Google faz, ao oferecer os links), ele alertou que sua resposta “pode não ser uma representação precisa ou completa da opinião de especialistas ou acadêmicos no assunto“.

Quantas pessoas colocarão esse alerta em seus textos copiados de uma resposta do ChatGPT? Quantas simplesmente darão Ctrl+C, Ctrl+V sem checar nada?

Para não deixar de registrar isso aqui, fiz uma pergunta qualquer para o Chat GPT só para testar a origem das suas fontes. Além de não informar a fonte precisa da resposta (como o Google faz, ao oferecer os links), ele alertou que sua resposta "pode não ser uma representação precisa ou completa da opinião de especialistas ou acadêmicos no assunto".

O risco de pararmos de pensar

Por fim, fiz uma pergunta que diz respeito a uma das minhas preocupações, que é a preguiça mental que esse tipo de ferramenta pode significar a médio prazo para os humanos.

Perguntei: “O uso contínuo da inteligência artificial pode fazer com que as pessoas pensem menos?”

E o ChatGPT respondeu: “O uso contínuo da inteligência artificial pode ter alguns efeitos colaterais no modo como as pessoas pensam e aprendem. Por exemplo, se as pessoas estão constantemente delegando tarefas para serem realizadas por algoritmos, elas podem ficar menos hábeis em realizar essas tarefas por conta própria. Além disso, se as pessoas confiam cegamente nas recomendações de sistemas de IA, elas podem perder a capacidade de questionar e avaliar a informação.”

Por fim, fiz uma pergunta que diz respeito a uma das minhas preocupações, que é a preguiça mental que esse tipo de ferramenta pode significar a médio prazo para os humanos. Perguntei: "O uso contínuo da inteligência artificial pode fazer com que as pessoas pensem menos?" E o Chat GPT respondeu: "O uso contínuo da inteligência artificial pode ter alguns efeitos colaterais no modo como as pessoas pensam e aprendem. Por exemplo, se as pessoas estão constantemente delegando tarefas para serem realizadas por algoritmos, elas podem ficar menos hábeis em realizar essas tarefas por conta própria. Além disso, se as pessoas confiam cegamente nas recomendações de sistemas de IA, elas podem perder a capacidade de questionar e avaliar a informação."

 

Eu pergunto: a quem interessa que as pessoas percam a capacidade de questionar e de avaliar as informações que recebem?

Aqui no Brasil vimos no que isso deu: uma legião de extremistas fanáticos negando a ciência, a lógica e o próprio bom senso, tentando até dar golpe de Estado depois de meses sofrendo lavagem cerebral com fake news.

Charge de Fredy Varela sobre atos terroristas e golpistas em Brasília, em 8/1/2023.
Charge de Fredy Varela.

Temos que melhorar o debate sobre inteligência artificial, que é importante, necessário e talvez urgente! Tanto para as artes, quanto para a qualidade da informação que circula no mundo, quanto, em última instância, para o pensamento crítico dos humanos.

 

Charge da Laerte sobre inteligência artificial, publicada na "Folha de S.Paulo" de 1.3.2023.
Charge da Laerte sobre inteligência artificial, publicada na “Folha de S.Paulo” de 1.3.2023.

***

Como flagrei o ChatGPT dando resposta errada ou inventada

Depois que eu já tinha feito este post para o blog, resolvi fazer um teste prático no ChatGPT, perguntando sobre um tema que eu já tinha pesquisado para um artigo.

Meu artigo já estava pronto, eu já tinha lido vários livros e artigos acadêmicos para me informar sobre o assunto, então estava “craque” nele, digamos assim.

Tinha feito o que todo bom jornalista faz: apurei e pesquisei em fontes confiáveis para embasar meu texto.

E, depois disso, resolvi jogar uma pergunta sobre o assunto para o ChatGPT, para ver o que ele responderia.

Ele primeiro deu uma resposta errada, falsa ou até mesmo inventada, sem nenhuma fonte para sustentá-la.

Como eu já estava por dentro do assunto, questionei. E só depois que eu questionei, ele admitiu o erro – e ainda se desculpou duas vezes:

Perguntei ao ChatGPT sobre um tema que eu tinha pesquisado e vi que a resposta que ele deu estava errada, pelo menos de acordo com tudo o que eu já tinha pesquisado...
Perguntei ao ChatGPT sobre um tema que eu tinha pesquisado e vi que a resposta que ele deu estava errada, pelo menos de acordo com tudo o que eu já tinha pesquisado…
... questionei de novo o ChatGPT e ele admitiu o erro na resposta anterior e pediu desculpas.
…questionei de novo o ChatGPT e ele admitiu o erro na resposta anterior e pediu desculpas.

O que achei mais chocante é que não foi um erro que eu detectei após testar 100 vezes. Na primeiríssima vez que fiz um teste, já flagrei o erro. Ou posso chamar de fraude?

E aí fica a pergunta: quantas pessoas vão se dar ao trabalho de questionar o ChatGPT até que ele identifique e assuma um erro?

Quantas vão simplesmente engolir uma resposta errada sem se dar conta, nem fazer um mínimo trabalho de verificação?

 


Se gostou da minha reflexão, ajude a levá-la adiante. Compartilhe! Mas, por favor, dê o crédito para o blog. Porque isso de copiar e colar, além de ser uma prática grave de plágio, também emburrece, viu? =P


Outros posts que ajudam a refletir:

➡ Quer reproduzir este ou outro conteúdo do meu blog em seu site? Tudo bem!, desde que cite a fonte (texto de Cristina Moreno de Castro, publicado no blog kikacastro.com.br) e coloque um link para o post original, combinado? Se quiser reproduzir o texto em algum livro didático ou outra publicação impressa, por favor, entre em contato para combinar.

➡ Quer receber os novos posts por email? É gratuito! Veja como é simples ASSINAR o blog! Saiba também como ANUNCIAR no blog e como CONTRIBUIR conosco! E, sempre que quiser, ENTRE EM CONTATO 😉

Receba novos posts de graça por emailResponda ao censo do Blog da Kikafaceblogttblog

Por Cristina Moreno de Castro (kikacastro)

Mineira de Beagá, jornalista (passagem por Folha de S.Paulo, g1 e TV Globo, UOL, O Tempo etc), blogueira há 20 anos, amante dos livros, poeta, cinéfila, blueseira, atleticana, politizada, otimista, aprendendo desde 2015 a ser a melhor mãe do mundo para o Luiz. Antirracista e antifascista.

6 comentários

  1. Pois é, Cristina. Temos que aprender com o robô e reconhecer aquilo que algum filósofo disse há muito tempo: só sei que nada sei. Espero que um dia ele possa entender o que isso significa. E suas perguntas foram muito inteligentes.

    Curtir

  2. Na Folha de S. Paulo (https://www1.folha.uol.com.br/tec/2023/01/universidade-francesa-sciences-po-proibe-uso-de-chatgpt.shtml) hoje:
    A Sciences Po, um das melhores universidades da França, proibiu o uso do ChatGPT, um chatbot baseado em inteligência artificial, para evitar fraudes e plágio.
    Sem uma referência transparente, os estudantes estão proibidos de usar o software para produção de qualquer trabalho ou apresentação, com exceção em casos de propósitos específicos, mediante supervisão do líder do curso, determinou a Sciences Po, sem especificar como vai monitorar a decisão.

    O ChatGPT já foi proibido em algumas escolas públicas nas cidades de Nova York e Seattle, nos Estados Unidos, segundo relatos da imprensa, e várias universidades norte-americanas anunciaram planos para que os alunos façam menos tarefas em casa e mais ensaios escritos à mão e provas orais.

    Curtir

    1. E tem que estar mesmo. Como mostrou seu teste de veracidade feito ao chatgpt. Este pelo menos admitiu o erro e pediu desculpa, por duas vezes. Aquilo que esperamos de muito da nossa imprensa que se recusa a admitir, por exemplo, que o impeachment de Dilma foi um golpe.

      Curtir

Deixar um comentário