La Importancia de un Marco Jurídico para la Inteligencia Artificial en Argentina

La Importancia de un Marco Jurídico para la Inteligencia Artificial en Argentina

Introducción

La inteligencia artificial (IA) está transformando nuestras vidas desde hace varios años, desde asistentes virtuales (Alexa, o un corrector de ortografía), a sistemas de recomendación en plataformas como YouTube, Spotify o Netflix, a asistentes de manejo o estacionamiento de vehículos, muchas veces sin que nos demos cuenta de ello. La IA está omnipresente en numerosas interacciones humanas, lo que exige una regulación adecuada para asegurar los derechos de los ciudadanos que puedan verse afectados. En dicho marco el 10/6/2024 el Diputado Nacional Dr. Juan Fernando Brügge de la Democracia Cristiana, ha presentado un proyecto de ley en la Cámara de Diputados de la Nación, bajo el título de “Régimen Jurídico Aplicable Para el Uso Responsable de la Inteligencia Artificial en la República Argentina", que busca establecer un marco legal para el uso ético y responsable de la IA en el país.

Objetivo del Proyecto de Ley

El principal objetivo de este proyecto de ley, es generar la existencia de principios generales rectores aplicables en el marco de las relaciones jurídicas, que puedan darse con motivo del uso de sistemas de inteligencia artificial.

Esto no les gusta a los autoritarios El ejercicio del periodismo profesional y crítico es un pilar fundamental de la democracia. Por eso molesta a quienes creen ser los dueños de la verdad. Hoy más que nunca Suscribite

Quizá lo más importante está en las definiciones, donde se identifica a la IA como “un sistema asistente-técnico … para realizar o automatizar una tarea, que simula un comportamiento inteligente… que requiere inteligencia humana”. Ello implica que la definición es suficientemente amplia para incluir prácticamente todos los modelos actuales de automatización, independientemente de la complejidad de la técnica de entrenamiento (aprendizaje automatizado, aprendizaje supervisado, redes neuronales, etc).

Cabe recordar que en la antigua Grecia y China existían sistemas y herramientas de automatización de tareas, como existen en la actualidad sistemas automatizados que no implican una IA, como el prendido automático de luces con sensores de movimiento, o la operación de un ascensor. Estos ejemplos que no “simulan un comportamiento inteligente, humano”, claramente quedan excluidos del alcance de la ley, permitiendo a los inventores optar por sistemas que no impliquen el aprendizaje automático o la percepción visual para mantener su invención fuera del marco de la presente ley.

Así mismo, es dable esperar que la IA como sistema asistente-socio-técnico vaya a influenciar nuestra sociedad, por lo que,es necesario que la definición sea suficientemente amplia para abarcar formas o utilizaciones de IA que aún no se han desarrollado, y este proyecto logra esta exigencia.

Así, se ofrece un marco jurídico que promueve la incorporación de herramientas de IA protegiendo los derechos fundamentales de las personas y fomentando el desarrollo tecnológico en Argentina​​. Esta legislación es fundamental para garantizar que la IA beneficie a la sociedad sin comprometer la salud, la seguridad y los derechos de los ciudadanos.

El proyecto de ley identifica tres sujetos: el proveedor o creador de un sistema de IA (Microsoft, OpenAI, Meta, etc), el usuario (la empresa que implementa un sistema de IA, el Estado que incorpora un sistema de IA, que tiene la autoridad para utilizar este sistema) y el afectado: la persona o grupo de personas que ve comprometido sus derechos, sea un consumidor, trabajador, empleado, empresa o incluso el gobierno.

Principios Rectores

El proyecto de ley se basa en varios principios rectores esenciales:

Transparencia y Explicabilidad: Los sistemas de IA deben ser comprensibles y sus decisiones explicables para los usuarios y partes interesadas. Esto es crucial para generar confianza y asegurar el uso responsable de la tecnología​​.

Ello implica que quien está interactuando con un sistema de IA sea consciente de ello. Si un sistema de inteligencia artificial me va a atender mi reclamo como consumidor bancario, es importante que en el canal de comunicación se me informe de ello (visual, con un cartel o advertencia en la plataforma, app o homebanking; o auditiva en la llamada con un mensaje que me aclare que estoy interactuando con una IA y no una persona). Lo mismo si se utiliza IA en la edición de fotografías, que tengan una identificación visual de su generación con IA en todo o en parte, para evitar la proliferación de fake news, o de imágenes falsas. Este principio consiste en básicamente avisar que se está utilizando una IA.

Robustez: los usuarios que implementan sistemas de IA deben capacitar a sus funcionarios o empleados, para que puedan detectar riesgos e informarlos.

Responsabilidad proactiva: los usuarios deben aplicar medidas para demostrar que el sistema es ético, transparente, que respeta la privacidad, que tiene medidas de seguridad suficientes, que realiza una evaluación periódica de los riesgos que pueda causar.

Esto es importante puesto que no todos los sistemas de IA son creados iguales, y no todos entrañan los mismos riesgos. Pensemos, por ejemplo, en un sistema de recomendación de películas, que intrínsecamente el mayor daño que pueda causarme es recomendarme una mala película. Un sistema de recomendación de jurisprudencia en cambio, sí puede generar un grave daño pues podría inducir a error a un juez o abogado que resulte en una condena o resolución injusta.

Esto se relaciona con la obligación de Evaluación de Impacto Sobre Derechos Humanos que es el equivalente a la Evaluación de Impacto en la Privacidad del Reglamento General de Protección de Datos Europeo, o de la Evaluación de Impacto Ambiental de nuestra Ley General de Ambiente. Quien va a realizar una implementación de IA debe preguntarse ¿para qué se implementa esta IA? ¿qué beneficios trae? ¿qué problema va a solucionar? ¿qué riesgos va a generar? ¿hay alternativas menos riesgosas? ¿puedo automatizar todo el proceso o sólo parte de él?

Aquí aparece la teoría del riesgo y su aceptación: ¿qué tan probable es que ocurra un evento capaz de causar un daño y cuál es la magnitud de dicho daño?

Pensemos en el ejemplo de Treuque Lauqeun que implementó la app “CUX” para tratar problemas de salud mental. ¿Había alternativas, como poner un servicio de atención en salud mental? Si el paciente que lo utiliza, acude a él porque padece una situación que afecta su salud mental, podemos adelantar que se encuentra en una situación de vulnerabilidad, en ese contexto ¿Cuál es la posibilidad de que el sistema de IA se equivoque con un paciente? ¿qué daño puede generarle?

El régimen propuesto prevé que los impactos positivos y negativos se evalúen y contrasten con los riesgos, y aquellas medidas que puedan adoptarse para mitigar el riesgo. Por ejemplo, el sistema CUX podría haber funcionado con supervisión de un terapeuta matriculado, en un sistema de prueba, con consentimiento de los pacientes, en una Universidad, a cargo de investigadores, y evaluar si servía el objeto o propósito del desarrollo, antes de implementarlo directamente frente a personas en situación de vulnerabilidad.

El esquema de evaluación de impacto de privacidad en la Unión Europea ha llevado a la implementación de criterios como “privacidad por diseño”, es decir, armar la oferta de productos o servicios pensando la privacidad desde el diseño de la propuesta, no como algo que viene después. Lo mismo sería deseable para la IA, que se piense en el beneficio y posible impacto en Derechos Humanos desde el momento en que se diseña.

Niveles de Riesgos

Como se dijo, no todas las IA son creadas iguales, y no todas conllevan los mismos riesgos. Así el proyecto de ley enumera cuatro categorías:

  1. Riesgos inaceptables y prácticas prohibidas
  2. Riesgos Altos
  3. Riesgo Medio
  4. Riesgo Bajo.

Toda implementación de IA es riesgosa, lo que queda por ver es cómo se la clasifica.

En el escalón más grave están aquellos que en mayor medida constituyen un riesgo para los derechos de las personas:

  1. manipulación cognitiva de la persona que pueda distorsionar su comportamiento siempre que cause o exponga a un daño. Por ejemplo, será ilegal manipular a las personas para que voten a un candidato, pero sí podría utilizarse la IA para tratar adicciones.
  2. Sistemas de puntuación social o clasificación, que brinde un tratamiento desfavorable o deniegue derechos por su puntaje. Estos sistemas ya están en vigencia en China, que a partir del puntaje deniegan el acceso al pasaporte, a un avión o a una universidad. Existe un enorme riesgo de estos sistemas de equivocación por el daño que generan.
  3. Identificación biométrica en tiempo real, debido a la triste experiencia en nuestro país que salió a la luz a raíz de la videovigilancia efectuada en la Ciudad Autónoma de Buenos Aires que salió expuesta a la luz gracias al amparo promovido por el Observatorio de Derecho Informático de Argentina (ODIA), que demostró la utilización del sistema para seguimiento a periodistas y políticos. Excepcionalmente podrá utilizarse en contexto de terrorismo o desaparición de personas, identificación de víctimas o persecución penal contra delitos graves como la trata de personas, delitos contra la integridad sexual, narcotráfico. La identificación “posterior” (no en tiempo real) para la aprehensión de condenados o la “instantánea” para la validación de la identidad (i.e. reconocimiento biométrico de AFIP o Renaper) está exceptuada y se reconoce como de riesgo alto.

En la categoría de riesgo alto, están todos aquellos que pueden afectar negativamente los derechos de las personas:

  1. Aquellos que requieren de una autorización previa, deberán obtenerla siguiendo el mismo protocolo ya establecido, sea de ANMAT, de SENASA o del INTA, como dispositivos médicos, automóviles, maquinaria industrial
  2. Sistemas de educación, formación, empleo, gestión de trabajadores; por ejemplo sistemas de lectura de CV que pueden determinar o clasificar a los trabajadores, o que pueden calcular sus horas, su productividad.
  3. Sistemas de acceso a servicios esenciales y servicios públicos, por ejemplo, sistemas de facturación de servicios públicos, de atención de reclamos.
  4. Sistemas de migración, asilo, control de fronteras
  5. Sistemas de interpretación, aplicación de la ley y jurisprudencia, pues podrían inducir a error a un juez afectando la libertad o la propiedad de una persona.
  6. Sistemas de interpretación de información médica sobre la salud de una persona humana determinada, pues podrían influenciar negativamente el diagnóstico del médico tratante. Se hace referencia a la “persona determinada”, pues no sería de riesgo alto -y hasta sería útil-, utilizar IA para monitorear información de la salud de un gran número de personas, para analizar datos epidemiológicos, por ejemplo.

Se consideran de riesgo medio aquellas actividades que “no tienen influencia material en decisión alguna”, pues no son herramientas o sistemas que efectúen decisiones por sí mismos. Estos sistemas sólo deben inscribirse ante la autoridad de aplicación y cumplir los principios enunciados. Ejemplos de ello son sistemas que mejoran el resultado de una actividad humana (un corrector ortográfico), o aquellos para detectar desviaciones de patrones de decisiones (por ejemplo, detectar posibles actos de corrupción o de fraude), o cuando se trata de elaborar tareas preparatorias sin sustituir sustancialmente la actividad humana (por ejemplo, un buscador de internet con IA, un sistema de dictado de textos.

Por último el proveedor o usuario pueden voluntariamente someterse a un control de la Autoridad de Aplicación para obtener una declaración de “riesgo medio”, en caso de que pueda demostrar a partir de la Evaluación de Impacto, manual de uso, las fuentes de información utilizados, que su sistema es suficientemente seguro para no ser considerado de riesgo alto.

Sanciones

Por último, la ley prevé sanciones e incorpora la figura de daño directo o daño punitivo por la violación de los principios de la ley.

La novedad es que fija la sanción administrativa y la judicial en un sistema tarifado legalmente, con independencia de la cupla o negligencia, entre 1 y 1000 Argentinos Oro, moneda que sigue estando vigente en nuestro país (aunque no circule y sólo podamos ver las monedas en museos), cuyo valor ronda aproximadamente los 100 dólares por Argentino Oro. Es una forma de mantener el valor de las sanciones, que si se compara con las multas de otros sistemas sancionatorios, tiende a desvalorizarse con el tiempo.

También muchas veces el sancionado recurre a proceso administrativo y judicial para estirar los tiempos procesales, a veces sin razón, pues a la postre obtendrá la licuación de la sanción o multa. Para evitar esto, se ha tarifado en una moneda que mantendrá su valor disuasivo independientemente de la conducta dilatoria o no del sancionado, de la política monetaria y fiscal. Una verdadera sanción independiente.

Conclusión

Esperamos que este proyecto ofrezca un marco jurídico para la implementación responsable de la inteligencia artificial en Argentina, reconociendo la importancia de la transparencia, la seguridad y la equidad. Así nuestro país podrá posicionarse en un esquema intermedio entre la legislación europea y la norteamericana, que obliga al usuario y proveedor a incorporar en su desarrollo la identificación de los riesgos para las personas, sirviendo como marco de responsabilidad, que permita el desarrollo de la industria tecnológica en nuestro país a partir de reglas claras y seguridad jurídica, preservando los derechos humanos de sus destinatarios.

*Juan Fernando Brügge, diputado nacional

Comments are closed.