Wat gebeurt er als ChatGPT naar een echte zaak verwijst maar verkeerd weergeeft waar de zaak voor staat?
Dat gaat niet op voor rechter Behm in Michigan.
De rechtbank zegt dat terwijl een procespartij dezelfde fout zou kunnen maken op basis van foutieve redenering, LLM's dat niet kunnen, omdat ze niet kunnen redeneren.
Interessante uitspraak in de OpenAI auteursrechtschending MDL.
Vandaag heeft de rechtbank geoordeeld dat de interne advocaten van OpenAI moeten verschijnen voor getuigenissen en Slack-berichten moeten delen over de redenen waarom ze trainingsdatasets hebben verwijderd.
De rechtbank zegt dat de communicatie niet beschermd is omdat "de geheimhouding tussen advocaat en cliënt geen feiten beschermt, zelfs niet wanneer ze worden gedeeld met een advocaat in anderszins beschermde communicatie."
En door zowel de redenen voor verwijdering als OpenAI's "goede trouw" ter discussie te stellen in de zaak, heeft OpenAI het privilege met betrekking tot die onderwerpen opgegeven.
Lina Khan beweerde dat ze zich niet kan herinneren wat ze op de LSAT heeft gehaald tijdens een recente podcastoptreden.
"Als ik moest gokken, waarschijnlijk in de 170s."
Lijkt dat vreemd? Niet dat het getal zelf veel betekent, maar ik kan me niet voorstellen dat je het niet herinnert.
Benieuwd of anderen het zijn vergeten.