*Nuevos casos judiciales tratan de definir el contenido creado por la inteligencia artificial como difamatorio, un concepto novedoso que ha intrigado a algunos expertos
WASHINGTON, (Agencias).- Los representantes de ventas de Wolf River Electric, un contratista de energía solar de Minnesota, observaron un aumento inusual de contratos cancelados a finales del año pasado.
Cuando pidieron explicaciones a los antiguos clientes, las respuestas los dejaron estupefactos.
Los clientes dijeron que se habían echado atrás después de enterarse, por búsquedas en Google, de que la empresa había llegado a un acuerdo con el fiscal general del estado por prácticas de venta engañosas.
Pero la empresa nunca había sido demandada por el gobierno, y mucho menos había llegado a un acuerdo en un caso relacionado con tales reclamaciones.
La confusión se convirtió en preocupación cuando los directivos de Wolf River lo comprobaron por sí mismos.
Los resultados de búsqueda que Gemini, la tecnología de inteligencia artificial de Google, ofrecía en la parte superior de la página, incluían dichas falsedades.
Y las menciones a un acuerdo judicial aparecían automáticamente al escribir “Wolf River Electric” en el cuadro de búsqueda.
Ante la acumulación de cancelaciones y el resultado infructuoso de sus intentos por utilizar las herramientas de Google para corregir los problemas, los directivos de Wolf River decidieron que no tenían más remedio que demandar al gigante tecnológico por difamación.
“Invertimos mucho tiempo y energía en forjarnos una buena reputación”...
dijo Justin Nielsen, quien fundó Wolf River con tres de sus mejores amigos en 2014 y contribuyó a que se convirtiera en el mayor contratista solar del estado.
“Cuando los clientes ven una señal de alerta como esa, es casi imposible recuperarlos”.
El suyo es uno de al menos seis casos de difamación presentados en Estados Unidos en los últimos dos años por contenidos producidos por herramientas de IA que generan texto e imágenes.
Estos argumentan que la tecnología de vanguardia no solo creó y publicó información falsa y perjudicial sobre personas o grupos, sino que, en muchos casos, siguió difundiéndola incluso después de que las empresas que desarrollaron y se benefician de los modelos de IA fueran notificadas del problema.
A diferencia de otras demandas por difamación o calumnia, estos casos pretenden definir como difamatorio el contenido que no ha sido creado por seres humanos, un concepto novedoso que ha intrigado a algunos expertos jurídicos.
“No hay duda de que estos modelos pueden publicar afirmaciones perjudiciales”...
dijo Eugene Volokh, destacado estudioso de la Primera Enmienda en la Universidad de California en Los Ángeles.
En 2023, Volokh dedicó un número entero de su publicación, Journal of Free Speech Law, a la cuestión de la difamación por parte de la IA.
“La pregunta”, dijo Volokh, “es quién es responsable de ello”.
(The New York Times ha demandado a Microsoft y OpenAI, alegando infracción de derechos de autor sobre contenido de noticias relacionadas con los sistemas de IA. Ambas compañías han negado las acusaciones de la demanda).
Nina Brown, profesora de comunicaciones de la Universidad de Siracusa y especialista en derecho de los medios de comunicación, afirmó que preveía que pocos de estos casos, si es que alguno, llegarían a juicio.
Un veredicto que declarara que una empresa es responsable de los resultados de su modelo de IA, dijo, podría provocar una enorme avalancha de litigios por parte de otros que descubrieran falsedades sobre sí mismos.
“Sospecho que si hay una demanda por difamación por parte de la IA en la que el demandado sea vulnerable, desaparecerá: las empresas llegarán a un acuerdo”, dijo Brown.
“No quieren correr el riesgo”.
Ella, Volokh y otros expertos jurídicos dijeron que el caso de Wolf River parecía especialmente sólido, en parte porque la empresa ha podido documentar pérdidas específicas provocadas por la falsedad.
Castañeda, el portavoz de Google, reconoció en un comunicado que “con cualquier tecnología nueva, pueden producirse errores”, y señaló que “en cuanto nos enteramos del problema, actuamos rápidamente para solucionarlo”.
Sin embargo, todavía el lunes, una búsqueda en Google de “queja sobre wolf river electric” arrojaba un resultado que decía que “la empresa también se enfrenta a una demanda del fiscal general de Minnesota relacionada con sus prácticas de venta” y sugería a los clientes que “presentaran una queja ante la oficina del fiscal general de Minnesota, puesto que ya están implicados con la empresa”.
Marchenko, quien emigró de niño a Minnesota desde Ucrania y jugó al hockey juvenil con Nielsen, dijo que le preocupaba que la empresa pudiera quebrar si los resultados de la IA no cambiaban.
“No tenemos un plan B”, dijo.
“Empezamos esto desde cero. Tenemos nuestra reputación, y eso es todo”.