Advogados envolvidos em uma ação contra a companhia aérea Avianca consultaram o ChatGPT para incrementar o processo de acusação e o resulto não foi o esperado: o chatbot passou informações falsas e a equipe foi pega na mentira. A situação nunca aconteceu antes e os advogados terão que se justificar pelo uso indevido.
O Olhar Digital já explicou caso aqui.
Leia mais:
- ChatGPT-4 Browsing: o que é e como funciona o chatbot que acessa a web
- Como o ChatGPT pode ser utilizado na área de programação?
- Existem comandos secretos para o ChatGPT melhorar sua vida
O que aconteceu
- Um passageiro, Robert Mata, processou a Avianca depois de se machucar quando um carrinho de metal atingiu seu joelho durante um voo para o Aeroporto Internacional Kennedy, em Nova York.
- A Avianca pediu que o juiz arquivasse o caso, mas, em defesa do cliente, o advogado Steven A. Schwartz apresentou outros casos similares em que as companhias tinham cedido.
- O profissional, porém, usou o ChatGPT para pesquisar os casos. Como medida para garantir que o chatbot não estivesse mentindo, o advogado chegou a perguntar a veracidade das informações passadas.
- O ChatGPT, então, se desculpou pela confusão anterior, em que foi questionado sobre a fonte da informação, e reafirmou que os casos eram reais e poderiam ser encontrados nos bancos de dados jurídicos Westlaw e LexisNexis.
- Schwartz ficou satisfeito com a resposta e usou os casos em sua defesa.
- Porém, o juiz responsável pelo caso, Kevin Castel, do Distrito dos Estados Unidos, confirmou que “seis dos casos apresentados parecem ser decisões judiciais falsas, com citações e referências internas fraudulentas”.
![[Tags] is_varghese_a_real_case-1024x575 Deu ruim! ChatGPT mentiu e advogados terão que se justificar pelo uso](https://img.olhardigital.com.br/wp-content/uploads/2023/05/is_varghese_a_real_case-1024x575.jpg)
E agora?
Em um novo despacho, Castel afirmou que a circunstância é “sem precedentes” e que a defesa foi repleta de “decisões judiciais falsas, com citações falsas e citações internas falsas”.
Ele agendou uma audiência para discutir a situação do uso indevido da IA para 8 de junho.
ChatGPT e mentiras
Não é exatamente novidade que o ChatGPT esteja envolvido em casos de mentiras e informações falsas. O chatbot já foi pego repassando (e confirmando) informações errôneas antes.
O Bing, ferramenta de IA da Microsoft, é outro que está associado a mentiras e manipulação.
O chatbot de IA da Google, chamado Bard, é outro que inventou fatos, dessa vez sobre o telescópio espacial James Webb em sua primeira demonstração.
Com informações de The Verge e The New York Times
Já assistiu aos novos vídeos no YouTube do Olhar Digital? Inscreva-se no canal!
O post Deu ruim! ChatGPT mentiu e advogados terão que se justificar pelo uso apareceu primeiro em Olhar Digital.
Fonte do Artigo
Tags:
#tecnologia #tecnologias #technology #tecnolog #iphone #informatica #tech #design #samsung #internet #apple #smartphone #seguranca #venezuela #celular #celulares #inovar #qualidade #software #empresas #cursos #engenharia #industria #marketing #ti #tecnoblog #veja #olhardigital #mundodigital #inteligenciaartificial #criar site #criar site curitiba #wiysolutions
#Comprar Cytotec#Cytotec Comprar#Cytotec Brasil
#Deu #ruim #ChatGPT #mentiu #advogados #terão #justificar #pelo #uso