Vivemos numa época em que a convivência entre humanos e máquinas é cada vez mais crescente e frequente. Nós, simples mortais, já sabemos ou conhecemos o que o nosso semelhante pode fazer para atender certos interesses. Dependendo da intenção ou do objetivo, a trapaça, o estelionato, a manipulação e a mentira permeiam as atitudes. Não raro, muitos são vítimas disso.

Porém, será que os robôs estão puxando essas características para eles? Ou um pouco pior: um robô é capaz de mentir?

Com as recentes fotos polêmicas geradas pela inteligência artificial, envolvendo personalidades como o papa Francisco e o ex-presidente Donald Trump, vem mais um fato para criar aquela “pulga atrás da orelha”.

Mentira atrás de mentira

A mentira anda estimulando nossos olhos (no caso das fotografias) ou influenciando negativamente um caso judicial nos Estados Unidos. Desta vez, um escritório de advocacia se viu numa situação bem embaraçosa.

Corre um processo contra a empresa aérea Avianca na Justiça norte-americana e, para surpresa de uma das partes, o juiz Kevin Castel acatou a alegação da parte contrária de que a citação de casos anteriores nos autos do processo são inexistentes ou nunca ocorreram. Ou traduzindo melhor para o nosso contexto atual: parte do que foi citado baseia-se em decisões jurídicas falsas ou que possuem referências fraudulentas.

O juiz Castel foi mais além e marcou uma audiência para aplicar supostas punições ao advogado que fomentou e divulgou esses tipos de inverdades.

Pergunte e confirme

Segundo informações publicadas pelo jornal The New York Times, o advogado envolvido neste imbróglio disse em depoimento juramentado que usou o ChatGPT nas suas pesquisas relacionadas ao caso que defende. Segundo suas declarações, logo após a pesquisa solicitada, ele questionou o chatbot da empresa OpenAl se os resultados eram autênticos e confiáveis.

O robô então afirmou que o caso selecionado por ele tinha realmente acontecido. Ainda assim, o advogado Steven Schwartz formulou a mesma questão em relação a outros exemplos apontados pelo chatbot, e houve uma segunda afirmativa de que todos os outros processos eram reais.

Enquanto rolava a audiência da Avianca, a parte contrária apresentou à corte um estudo que mostrava a lista de mentiras descritas pelo advogado descuidado.

Como exemplo, o caso Varghese v. China Southern Airlines Co., Ltd., ratificado pelo chatbot, simplesmente não existe.

Diante de uma “saia muito justa”, Steven Schwartz pediu desculpas por usar inteligência artificial para ganhar tempo nas pesquisas jurídicas e se dispôs a nunca mais utilizá-la em favor de buscar informações autênticas e concretas.

Peter LoDuca é outro advogado do mesmo escritório de Schwartz. Ele assumiu a responsabilidade pela vergonha pública e deverá responder pessoalmente ao juiz para explicar o que houve de fato.

A polêmica reacende a questão da confiabilidade de imagens, de suas postagens nas redes e na crença/manipulação da honestidade das pessoas que as frequentam. Com esta situação ocorrida na corte de Nova York, é preciso considerar seriamente mais do que uma confirmação para checar se os dados coletados não foram fabricados ou são obras de algoritmos.

Pois, o resultado pode iludir profissionais que põem suas cabeças a prêmio, na lâmina da guilhotina.

Se o leitor ainda tem dúvida acerca da condução ética dos chatbots, basta lembrar que o chatbot do Google, denominado de Bard, simulou um fato não verídico sobre o telescópio espacial James Webb.