
Gente… tem que saber usar a inteligência artificial. Todo mundo. Inclusive a empresa que criou a própria ferramenta. Senão, fica difícil.
Acho o Claude AI muito competente para uma coisa: redação.
Ele é muito superior para escrever textos que soam mais naturais do que o ChatGPT, Gemini, Perplexity e várias outras.
Fora isso, é uma das IAs mais burras que existe.
E se não dá para usar sequer o ChatGPT para ter parecer alternativo sobre decisões judiciais, que dirá usar o Claude para ajudar a desenvolver uma defesa jurídica da própria Anthropic?
Essa é uma das histórias mais bizarras da semana, e podemos aprender muito com tudo o que aconteceu aqui.
Podem demitir os advogados da Anthropic…
A Anthropic reconheceu um erro de citação em documento legal apresentado por sua cientista de dados Olivia Chen, durante sua defesa contra um processo movido por editoras musicais (Universal Music Group, ABKCO e Concord).
O erro ocorreu porque o chatbot Claude foi utilizado para formatar citações legais no documento. Uma tarefa que, aparentemente, o ser humano ainda é necessário.
E não é a primeira vez que alertamos sobre isso.
Tudo bem, você pode utilizar uma inteligência artificial para pesquisar e escrever a base de um texto. Mas a verificação posterior das informações e revisão do conteúdo ainda fica por parte de quem vai assinar essa redação.
A advogada da Anthropic, Ivana Dukanovic, esclareceu que apesar de a IA ter fornecido o título da publicação, ano e link corretos, ela incluiu título e autores imprecisos.
Os advogados da empresa revisaram manualmente o documento e corrigiram problemas como números de página e volumes errados, mas não identificaram as palavras trocadas.
A empresa se desculpou pelo ocorrido, classificando-o como “um erro embaraçoso e não intencional”.
A preguiça jurídica foi exposta
O caso envolvendo a própria Anthropic não é apenas constrangedor por mostrar que o Claude AI é um tanto quanto incompetente na hora de escrever textos mais específicos ou para finalidades mais complexas.
O incidente escancara um problema crescente no meio jurídico: o uso de ferramentas de IA para elaboração de documentos legais tem causado constrangimentos nos tribunais.
Esse não é o primeiro caso que ocorre com essas mesmas características, e muitos temem que não será o último.
Recentemente, um juiz californiano multou um escritório de advocacia em US$ 31.100 (cerca de R$ 176 mil) por apresentar uma petição com citações falsas geradas por IA. O magistrado Michael Wilner confessou quase ter sido enganado pelo documento.
Em casos específicos, a inteligência artificial alucina a ponto de inventar precedentes jurídicos que nunca existiram, apenas e tão somente para cumprir com o seu papel de completar o contexto de alguma coisa.
Até mesmo algumas ferramentas específicas para advogados, que teoricamente buscam argumentos em fontes externas antes de elaborar respostas, não oferecem total confiabilidade.
Um estudo da Universidade Stanford detectou que IAs jurídicas alucinam em aproximadamente 17% dos casos testados, ou seja, uma em cada seis vezes apresentam informações falsas.
O que aprendemos com tudo isso?
O óbvio: que as plataformas de inteligência artificial ainda estão na curva de aprendizado, e que várias tarefas ou atividades de nossas vidas ainda precisam da mente e mãos humanas para serem concluídas com competência.
Advogados, podem respirar aliviados, pois os seus empregos serão preservados por mais algum tempo…
…mas apenas para aqueles advogados que não são preguiçosos e vagabundos, obviamente.
Via The Verge

