La proliferación de sistemas de inteligencia artificial generativa ha planteado desafíos jurídicos inéditos en derecho, como, por ejemplo, en materia de responsabilidad civil y protección de derechos fundamentales. Un reciente fallo del tribunal superior de Georgia en el caso Walters v. OpenAI ofrece un precedente significativo sobre difamación causada por ChatGPT, estableciendo criterios que merecen análisis crítico desde la perspectiva del derecho comparado. El caso involucra la generación de información falsa que atribuía delitos inexistentes a un prominente locutor, sentencia que plantea interrogantes sobre los límites de la responsabilidad de los desarrolladores de IA y la adecuación de los marcos jurídicos tradicionales para abordar estos nuevos fenómenos.
¿Cuáles son los hechos centrales del caso Walters v. OpenAI?
El caso involucra a Mark Walters, un reconocido locutor y activista a favor del derecho a portar armas, quien demandó a OpenAI por difamación. En mayo de 2023, Frederick Riehl, editor de AmmoLand.com, utilizó ChatGPT para obtener un resumen de una demanda judicial. Al proporcionar el enlace URL del documento, ChatGPT respondió inicialmente que no podía acceder a internet. No obstante, en un segundo intento, el sistema generó información completamente falsa, atribuyendo a Walters la comisión de delitos que nunca había cometido. Esta información inexacta fue producto de una “alucinación” de la IA, fenómeno consistente en la generación de contenido que contradice los datos fuente.
¿Cuál fue la decisión del tribunal de Georgia y cuáles fueron sus fundamentos principales?
El tribunal aceptó la moción interpuesta por OpenAI para el rechazo sumario de la demanda. Su razonamiento se estructuró en tres ideas fundamentales: (i) determinó que no hubo “difusión efectiva” porque Riehl nunca publicó la información falsa generada por ChatGPT, manteniéndola en el ámbito privado de su consulta; (ii) concluyó que OpenAI no podía tener conocimiento específico de la falsedad de cada respuesta generada, dado el carácter probabilístico de los modelos de lenguaje y; (iii) consideró que los términos de servicio y las advertencias sobre posibles inexactitudes constituían salvaguardas suficientes que exoneraban de responsabilidad al desarrollador. El rechazo sumario a favor de OpenAI implicó determinar que no se configuró daño difamatorio efectivo , por lo que no se ordenó retractación ni cierre de sitio web, ni se impuso una indemnización.
¿Qué aspectos de la decisión podrían considerarse más problemáticos?
El enfoque del tribunal presenta al menos tres aspectos conceptuales problemáticos:
Primero, la interpretación restrictiva de “difusión” no tiene en cuenta que la mera generación de contenido difamatorio para la consideración de una persona ya causa daño reputacional, independientemente de su posterior divulgación a más personas. En Colombia, la Corte Constitucional ha recogido que el daño a la honra puede configurarse aun sin difusión pública, en tanto se trata de la dignidad inherente a la persona humana. En cambio, el buen nombre —entendido como la valoración social o reputación frente a terceros— exige necesariamente difusión para su vulneración. Esta distinción permite matizar los alcances del daño reputacional cuando se trata de información generada por sistemas de IA.
Segundo, si una empresa desarrolla tecnología que sistemáticamente puede generar información falsa sobre personas reales, debe cuestionarse si ésta no debe asumir las consecuencias de las fallas en el diseño del sistema. Al respecto consideramos que el elemento de culpa debe evaluarse considerando si el desarrollador ejerció la diligencia debida en el diseño del sistema. Si la IA tiene una propensión conocida a generar “alucinaciones” sobre personas reales, se requiere que el desarrollador implemente las salvaguardas técnicas adecuadas.
Finalmente, el tribunal parece otorgar pleno valor exculpatorio a las advertencias contractuales, lo que podría llevar a pensar que las empresas tecnológicas puedes, a través de los disclaimers, evadir responsabilidad por daños previsibles. Esta visión transferiría completamente el riesgo a los usuarios, ignorando que las empresas tienen capacidad técnica superior para implementar algunas salvaguardas a estos fenómenos.
¿Qué implicaciones tiene este caso para la regulación de tecnologías generativas?
El caso Walters revela la necesidad de revisar los marcos jurídicos tradicionales al momento de abordar daños causados por inteligencia artificial generativa. La decisión, si bien comprensible desde una perspectiva de derecho anglosajón, podría interpretarse en el sentido que las empresas tecnológicas gozan de “inmunidad” práctica, por la sola advertencia sobre posibles inexactitudes. Es necesario revisar instrumentos como las leyes sobre protección de datos personales –en Colombia, la Ley 1581 de 2012–, los parámetros de responsabilidad civil y explorar posibles ajustes legislativos sobre la imputabilidad objetiva por fallas de diseño. Además, la jurisprudencia sobre responsabilidad por daño moral derivado de contenidos falsos debe actualizarse ante escenarios algorítmicos.
Otro reto emergente consiste en definir el sujeto responsable: ¿debe responder el proveedor tecnológico que diseñó el sistema? ¿el usuario que la activó? En Colombia, el principio de imputación exige voluntad y capacidad de acción, por lo que adaptar estas categorías al ámbito algorítmico exigirá un rediseño teórico y normativo profundo.
El caso Walters v. OpenAI marca un punto de inicio en la intersección entre inteligencia artificial y responsabilidad civil, aunque su resolución deja interrogantes significativos sobre la protección adecuada de los derechos fundamentales en la era digital. El desarrollo futuro de esta área del derecho requerirá un diálogo interdisciplinario para crear estándares que protejan efectivamente los derechos fundamentales mientras fomentan el desarrollo responsable de la inteligencia artificial. El desafío será mantener el equilibrio entre la protección de la dignidad humana y la promoción de la innovación tecnológica que caracteriza a las sociedades democráticas del siglo XXI.
¿Quiere publicar su edicto en línea?
Contáctenos vía WhatsApp