No te pierdas nuestros contenidos
SuscribirmeEl pasado 24 de septiembre de 2024, el senador Edward Markey, presentó en el Senado de los Estados Unidos la Propuesta de Ley para la protección de derechos individuales en relación con los algoritmos computacionales y para otras finalidades, también llamada, en la propia propuesta legislativa, la Ley de Derechos Civiles de la Inteligencia Artificial 2024 (Artificial Intelligence Civil Rights Act of 2024) (en adelante, la “Propuesta de Ley de IA de EE. UU.” o la “Propuesta”). Esta norma representa un intento legislativo significativo para abordar los desafíos y riesgos asociados al uso de algoritmos computacionales por los ciudadanos estadounidenses, protegiendo los derechos individuales y abordando cuestiones como la discriminación, la transparencia y los sesgos.
La Propuesta es de aplicación a los “algoritmos cubiertos” (covered algorithms) entendidos como «cualquier proceso computacional derivado de aprendizaje automático, procesamiento de lenguaje natural, técnicas de inteligencia artificial, u otras técnicas de procesamiento computacional de complejidad similar o mayor que, en relación con una acción consiguiente, (i) cree o facilite la creación de un producto o información; (ii) promueva, recomiende, ranquee, o afecte de cualquier otro modo en la disposición o la entrega de información material a la consiguiente acción; (iii) tome una decisión, o (iv) facilite la toma de decisiones humanas.» (en adelante, un “Algoritmo Cubierto”).
Asimismo, por lo que refiere a los sujetos, la Propuesta impone obligaciones y resulta de aplicación a los desarrolladores (developers), entendidos como «cualquier persona que actúe en un ámbito comercial que diseñe, desarrolle, adapte, produzca o modifique sustancialmente un algoritmo cuya finalidad o que razonablemente vaya a ser usado como un Algoritmo Cubierto, o usado por un tercero, o que afecte al comercio interestatal» (en adelante, los “Desarrolladores”) y los responsables del despliegue (deployers) entendidos como «cualquier persona que actúe en un ámbito comercial que utilice un Algoritmo Cubierto en o que afecte el mercado interestatal» (en adelante, los “Responsables del Despliegue”).
A continuación, analizamos los aspectos más relevantes de esta Propuesta de Ley de IA de EE. UU. y cuáles serían sus potenciales implicaciones para Desarrolladores y Responsables del Despliegue.
Título I: Discriminación y evaluaciones de impacto previas y posteriores a la implementación
La Propuesta prohíbe a los Desarrolladores y Responsables del Despliegue de Algoritmos Cubiertos ofrecer, licenciar, promover, vender o usar un algoritmo de manera que cause o contribuya a un impacto dispar en el disfrute igualitario de bienes, servicios u otras actividades u oportunidades basadas en las denominadas “características protegidas”.
Estas características incluyen la raza, el color, la etnia, la nacionalidad, la religión, el sexo, cualquier discapacidad, dominio del inglés limitado, información biométrica, situación familiar, fuentes y niveles de ingresos, edad, condición de veterano, información genética o médica, entre otras. La finalidad de esta disposición es prevenir la discriminación e intentar garantizar que los algoritmos no perpetúen o exacerben desigualdades y sesgos ya existentes.
Con el fin de evitar esta discriminación, antes de implementar, licenciar u ofrecer un Algoritmo Cubierto para realizar cualquier acción, los Desarrolladores y Responsables del Despliegue deberán realizar una evaluación pre-implementación para identificar posibles daños que puede causar el uso del algoritmo, y elaborar un informe sobre los resultados obtenidos. Si se determina que la posibilidad de causar un daño es plausible, se deberá realizar una evaluación completa por un auditor independiente.
Además, los Responsables del Despliegue, una vez introduzcan en el mercado Algoritmos Cubiertos, deberán realizar evaluaciones de impacto anuales para identificar cualquier daño resultante del uso de los mismos. Los Desarrolladores, a su vez, deberán elaborar un informe anual consistente en un análisis de la evaluación de impacto realizada por el Responsable del Despliegue.
Título II: Estándares de Algoritmos y Contratos Cubiertos por la Propuesta, Relaciones entre Desarrolladores y Responsables del Despliegue y Alternativas Humanas y de otro tipo
De conformidad con las disposiciones de este Título II, los Desarrolladores y Responsables del Despliegue deberían tomar medidas razonables para prevenir y mitigar cualquier daño identificado en las evaluaciones pre-implementación o de impacto anuales. También deberían asegurarse de que los auditores independientes tengan toda la información necesaria para completar evaluaciones precisas y efectivas. Además, estarían obligados a consultar a las partes interesadas, incluidas las comunidades afectadas, antes de implementar, licenciar u ofrecer el Algoritmo Cubierto. Los contratos entre desarrolladores y responsables de la implementación tendrían que establecer claramente la naturaleza y finalidad de los procedimientos de tratamiento de datos, así como las instrucciones para implementar el algoritmo.
Los Desarrolladores, asimismo, deberían proporcionar a los Responsables del Despligegue la información necesaria para demostrar el cumplimiento de su actividad con la Propuesta de Ley de IA de EE. UU., incluyendo informes de evaluaciones pre-implementación y revisiones anuales.
Finalmente, se establece que los contratos entre Desarrolladores y Responsables del Despliegue deberían establecer claramente la naturaleza y finalidad de los procedimientos de tratamiento de datos, así como las instrucciones para implementar el Algoritmo Cubierto.
Título III: Transparencia
Aviso y divulgación
Cada Desarrollador o Responsable del Despliegue estaría obligado a divulgar públicamente, de forma detallada y precisa, sus prácticas en relación con los requisitos de la Propuesta de Ley de IA de EE. UU. Esta declaración tendría que incluir información sobre:
(i) la identidad y contacto del Desarrollador o Responsable del Despliegue o de cualquier otra entidad que forme parte de la misma estructura empresarial que el Desarrollador o el Responsable del Despliegue, a la que los datos se transfieran;
(ii) un enlace que permita al usuario acceder a las evaluaciones pre-implementación y de impacto del Desarrollador y el Responsable del Despliegue, y las categorías de datos personales que recopilan o tratan;
(iii) si el Desarrollador o Responsable del Despliegue transfiere datos personales y, en su caso, identificar a cada tercero a quien el Desarrollador o el Responsable del Despliegue transfiera estos datos y la finalidad para la que estos datos se transfieran, excepto en relación con transferencias a entidades gubernamentales de conformidad con una orden judicial o ley que prohíban al que el Desarrollador o el Responsable del Despliegue revele esta transferencia;
(iv) una descripción sobre cómo un individuo puede ejercitar los derechos previstos en la Propuesta;
(v) una descripción general sobre las prácticas del Desarrollador o el Responsable del Despliegue en cumplimiento de los requisitos de la Propuesta, y
(vi) una declaración sobre la auditoría del Algoritmo Cubierto y la fecha de efectos de la declaración.
Cualesquiera cambios materiales en relación con la declaración anterior también se tendrían que notificar a los individuos afectados por dichos cambios.
Estudio sobre explicaciones en relación con el uso de los algoritmos
La Comisión Federal de Comercio (“FTC”) debería realizar un estudio sobre la viabilidad de exigir a los Responsables del Despliegue que proporcionen un mecanismo claro y accesible para que los individuos reciban una explicación sobre cómo un algoritmo les afecta.
Títulos IV y V: Cumplimiento y Recursos Federales
La FTC tendría la potestad para hacer cumplir la Propuesta de Ley de IA de EE.UU., utilizando los mismos medios y poderes que en la Ley de la Comisión Federal de Comercio.
Asimismo, se prevé que los fiscales generales de los estados y las autoridades estatales de protección de datos puedan interponer acciones civiles en nombre de los residentes del estado en cuestión para hacer cumplir la Propuesta de Ley de IA de EE.UU., solicitando que se sancione a los sujetos que han incumplido por daños, pudiendo solicitar, entre otros, (i) 15.000 dólares por incumplimiento o el 4% de los ingresos brutos anuales promedio del demandado durante los tres años anteriores, lo que sea mayor; (ii) obtener daños, restitución u otra compensación en nombre de los residentes de dicho Estado, y (iii) obtener honorarios razonables de abogados y costas.
Conclusión
En resumen, la Propuesta de Ley de IA de EE. UU., al margen del recorrido legislativo que pueda tener, demuestra una creciente preocupación también en ciertos sectores de EE. UU. por regular los algoritmos computacionales, con el objetivo de proteger los derechos individuales y promover la transparencia y la responsabilidad en el uso de la inteligencia artificial. Desde este Blog os mantendremos informados sobre la evolución de esta Propuesta, así como de cualquier otra novedad legislativa relevante en materia de IA en EE. UU.
Autores: Paula Álvarez, con la colaboración de Paula Baidez
No te pierdas nuestros contenidos
Suscribirme