O que acontece quando o ChatGPT cita um caso real, mas declara mal o que ele representa?
Isso não aceita o juiz Behm em Michigan.
O tribunal afirma que, enquanto um litigante pode cometer o mesmo erro com base em raciocínio equivocado, LLMs não podem, porque não conseguem raciocinar.
Decisão interessante na infração de direitos autorais da OpenAI MDL.
Hoje, o tribunal decidiu que os advogados internos da OpenAI devem prestar depoimentos e compartilhar mensagens do Slack sobre os motivos pelos quais excluíram os conjuntos de dados de treinamento.
O tribunal afirma que as comunicações não são privilegiadas porque "o sigilo advogado-cliente não protege fatos, mesmo quando são compartilhados com um advogado em comunicações que seriam de outra forma privilegiadas."
E ao colocar tanto os motivos para a exclusão quanto a "boa-fé" da OpenAI em questão no caso, a OpenAI renunciou ao privilégio quanto a esses temas.
Lina Khan afirmou que não consegue lembrar o que tirou no LSAT durante uma recente participação em um podcast.
"Se eu tivesse que chutar, provavelmente nos anos 170."
Isso parece estranho? Não que o número em si signifique muito, mas não consigo imaginar não lembrar.
Curioso se outros já esqueceram.