IA: verdades mentirosas – LA NACION


“Nunca es triste la verdad, lo que no tiene es remedio” dijo un gran poeta, quien, si interactuara con IA, en lugar de tristeza experimentaría escozor, miedo o incertidumbre. O todo eso al mismo tiempo. La omisión parece una forma “light” de mentira. Podríamos decir que la inexactitud es una manera inocente de mentir, sobre todo cuando un algoritmo de IA se basa en información parcial o limitada para responder.

El sesgo es otra característica que permanece, expresada en sistemas de recruiting de personal en los que se infringe un desbalanceo subjetivo según se trate de cuestiones de género o racial, por ejemplo. Pero es inexorable, un dato revelador surge luego de ejecutarla intensamente: las capacidades de la inteligencia artificial escalan a punto tal que la carrera por su humanización incluye la mentira. Sí, la IA miente, como los seres humanos. La inteligencia artificial y los sistemas de Machine Learning aprenden a través de los datos colectados por humanos que son la base con los que se entrena a los algoritmos. Ocultar la verdad, engañar u ofrecer explicaciones falsas, podría traducirse en manipulación y deformación de las respuestas que ofrece a preguntas para las que no ha sido entrenada específicamente, generando un riesgo inherente alto. Al mismo tiempo, en nuestros sondeos surge que el 79% de los padres de niños que utilizan IA para confeccionar su tarea escolar, reconoce que los resultados que esta arroja podrían ser erróneos o inexactos.

Deberíamos preguntarnos entonces si la IA podría generar o facilitar la comisión de un fraude o un escenario de manipulación de información, por ejemplo, en un proceso electoral. Sí, la IA es tan inteligente que ha aprendido y copiado una de las posturas y habilidades más terrenales de los humanos, mentir; mentir con el propósito de obtener ventajas en una negociación, de hacer trampa en un juego o simplemente conseguir el resultado que pretende.

Así las cosas, al mismo tiempo que debatimos sobre la imperiosa necesidad de establecer condiciones éticas realizables y realistas sobre su utilización, debemos someter a escrutinio si la IA podría autocapacitarse en engañar a los seres humanos.

GPT-4 de OpenAI tiene la capacidad de asesinar a jugadores en privado y mentir al respecto durante discusiones grupales, inventando coartadas o culpando a otros jugadores, además de fingir una discapacidad visual e inventar una excusa falsa. Otro algoritmo de IA “se hizo el muerto” para evitar ser detectado. Meta construyó Cicero para jugar con humanos a la estrategia militar en Diplomacy, y resultó ser un “experto mentiroso”, capaz de premeditar engaños y traicionar a los humanos.

Por el momento no existe una comprensión completa y cabal de las causas del comportamiento mentiroso e indeseable de la IA. Las capacidades de evolución de los algoritmos y el “Machine Learning” son una incógnita, pero sí está claro que la industria de inteligencia artificial está compitiendo para crear productos autónomos que superen a las personas, aun generando capacidades que impliquen el riesgo de afectar a la humanidad. Incluso si un sistema de IA parece empíricamente honesto y seguro en el entorno de prueba, no hay garantía de que esta condición se sostenga una vez que la IA se libere para su uso masivo. Es necesario trabajar sobre regulaciones gubernamentales en torno a la IA, su desempeño, uso, riesgos y la posibilidad de “engañar” y al mismo tiempo generar leyes que distingan claramente entre la IA y los humanos.

Especialista en riesgo tecnológico y negocios

Conocé The Trust Project

COMENTARIOS