Desde distintas perspectivas del Derecho, los griefbots plantean diversas cuestiones tanto éticas como legales
No te pierdas nuestros contenidos
Suscribirme¿Alguna vez has deseado poder hablar de nuevo con un ser querido fallecido o, incluso, mantener su memoria viva a través de un avatar digital? Algunas personas están recurriendo a la inteligencia artificial (IA) para crear los denominados "griefbots", chatbots que simulan los patrones de lenguaje y rasgos de personalidad de los difuntos haciendo uso de las huellas digitales que dejaron en vida. Aunque están destinados a proporcionar consuelo y alivio a los afligidos, también plantean cuestiones legales y éticas, especialmente desde una perspectiva de protección de datos, regulación de la IA y derechos de imagen.
Los griefbots no son un fenómeno nuevo, pero se han vuelto cada vez más accesibles y sofisticados gracias a los avances en IA y tecnologías generativas. Por ejemplo, un ingeniero de software recreó la apariencia, el habla y los gestos de su abuelo a partir de fotografías familiares, videos, cartas y mensajes telefónicos, y utilizó un modelo de IA para generar conversaciones realistas con él.
Sin embargo, estos casos también ilustran algunos de los potenciales riesgos y desafíos de los griefbots:
Cuestiones de privacidad y protección de datos
¿Cómo se pueden recabar, tratar y almacenar de manera legal y respetuosa los datos personales de los fallecidos, como sus fotos, mensajes, grabaciones de voz y publicaciones en redes sociales? ¿Quién puede autorizar el uso de dichos datos y cómo se pueden respetar y proteger los derechos y deseos de los difuntos y sus familiares?
Bajo el Reglamento General de Protección de Datos (RGPD), los datos personales de las personas fallecidas no están protegidos, pero los Estados miembros pueden establecer normas específicas al respecto. Por ejemplo, en España, el artículo 3 de la Ley Orgánica de Protección de Datos Personales y garantía de los derechos digitales establece que los herederos o familiares del fallecido pueden ejercer los derechos de acceso, rectificación, supresión y oposición al tratamiento de sus datos personales, a menos que el fallecido se hubiese negado expresamente o una ley disponga lo contrario.
Además, incluso si los datos personales de los fallecidos no están protegidos por las disposiciones del RGPD, sí lo están los datos de los familiares y amigos vivos que interactúan con el griefbot. Esto significa que el proveedor del griefbot debe obtener su consentimiento o disponer de otra base legal para tratar lícitamente sus datos, informarles sobre las finalidades y el alcance del tratamiento y respetar sus derechos de protección de datos. Además, el proveedor del griefbot debe garantizar la seguridad y confidencialidad de los datos y cumplir con los principios de minimización de datos y limitación del almacenamiento.
Implicaciones de la inteligencia artificial
Otro de los aspectos legales a tener en cuenta en relación con los griefbots es el cumplimiento del Reglamento de Inteligencia Artificial (RIA), que ya ha sido aprobado y se halla pendiente de publicación en el Diario Oficial de la UE (véase el Legal Flash “Aspectos clave del Reglamento de Inteligencia Artificial”). Dependiendo del diseño y uso del griefbot, este podrá estar sujeto a requisitos específicos bajo el RIA, como los siguientes:
- Generalmente, al tratarse de sistemas de IA destinados a interactuar directamente con personas físicas, el proveedor deberá garantizar que estos se diseñen y desarrollen de manera que las personas físicas que interactúen con ellos estén informadas de que se trata de un sistema de IA.
- Además, al ser sistemas de IA generativa –esto es, que generan contenido sintético de audio, imagen, vídeo o texto– será obligación del proveedor garantizar que la información de salida del sistema de IA esté marcada en un formato legible por máquina y sea posible detectar que ha sido generada o manipulada de manera artificial.
- En caso de que el griefbot constituya un sistema de reconocimiento de emociones, el responsable del despliegue deberá informar del funcionamiento del sistema a las personas físicas expuestas a él.
- Asimismo, cuando se trate de deepfakes –es decir, sistemas de IA que generen o manipulen imágenes de audio o video que constituyan una ultrafalsificación– el responsable del despliegue deberá hacer público que estos contenidos o imágenes han sido generados o manipulados de manera artificial.
Adicionalmente, si el griefbot se destina a alguna de las finalidades contempladas en el Anexo III RIA, podría ser considerado un sistema de IA de alto riesgo, quedando sujeto a obligaciones más estrictas, incluyendo obligaciones de transparencia, supervisión humana, evaluación de riesgos y evaluación de conformidad. Tal es el caso, por ejemplo, si el griefbot utiliza datos biométricos para inferir emociones.
Derechos de imagen y propiedad intelectual
¿Cómo pueden respetarse y protegerse los derechos e intereses de los fallecidos y sus familiares con respecto al uso de su imagen, voz, nombre u otras características distintivas? Bajo el ordenamiento español, los derechos de imagen se consideran derechos personales inherentes a la dignidad humana y la personalidad, y están protegidos tanto durante la vida como después de la muerte de la persona.
En virtud de la Ley Orgánica de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen, el uso de la imagen de una persona fallecida requiere el consentimiento de sus herederos o familiares, a menos que la persona lo haya autorizado expresamente o una ley lo autorice. Además, el uso de la imagen de los familiares y amigos vivos por parte del proveedor del griefbot –por ejemplo, para el entrenamiento de esta IA– también requeriría de su consentimiento.
Adicionalmente, ¿a quién deben pertenecer los derechos e intereses de propiedad intelectual? ¿A los creadores y proveedores de griefbots con respecto al uso de sus modelos de IA, algoritmos o contenido? ¿O bien a los fallecidos –y, por extensión, a sus herederos o familiares– cuya información se utiliza para crear el griefbot en cuestión? Todo ello son cuestiones que preferiblemente deberían pactarse contractualmente, dentro de los límites establecidos por la Ley de Propiedad Intelectual.
Conclusión
Los griefbots constituyen una aplicación tan fascinante como controvertida de la IA, planteando serios desafíos legales y éticos. Sin ir más lejos, los expertos alertan sobre los riesgos para la salud mental que este tipo de “soluciones” pueden tener para los afligidos. Las normativas nacionales y europeas ofrecen ciertas orientaciones y salvaguardias para el desarrollo y uso de griefbots, pero también dejan algunos vacíos e incertidumbres que podrían requerir un mayor análisis por las partes intervinientes.
No te pierdas nuestros contenidos
Suscribirme