¿Qué ocurre cuando ChatGPT cita un caso real pero exagera erróneamente lo que representa el caso?
Eso no le cuadra al juez Behm en Michigan.
El tribunal afirma que, mientras que un litigante podría cometer el mismo error basándose en un razonamiento erróneo, los LLM no pueden, porque no pueden razonar.
Fallo interesante en la infracción de derechos de autor de OpenAI MDL.
Hoy, el tribunal dictaminó que los abogados internos de OpenAI deben presentar declaraciones y compartir mensajes de Slack sobre las razones por las que eliminaron los conjuntos de datos de entrenamiento.
El tribunal afirma que las comunicaciones no son privilegiadas porque "el privilegio abogado-cliente no protege los hechos, incluso cuando se comparten con un abogado en comunicaciones que de otro modo serían privilegiadas."
Y al poner en cuestión tanto las razones de la eliminación como la "buena fe" de OpenAI en el caso, OpenAI ha renunciado al privilegio respecto a esos temas.
Lina Khan afirmó que no recuerda qué sacó en el LSAT durante una reciente aparición en un podcast.
"Si tuviera que adivinar, probablemente en los años 170."
¿Te parece raro? No es que el número en sí signifique mucho, pero no me imagino no recordarlo.
Tengo curiosidad por saber si otros se han olvidado.