La Inteligencia Artificial llegó al Congreso: los debates para legislar sobre un futuro presente
Todos los bloques ya tomaron postura con proyectos que abordan el rol de la Inteligencia Artificial en la seguridad y la educación. ¿Qué se espera para 2025?
- 🤖 La Inteligencia Artificial (IA) se ha integrado en diversos aspectos de la vida cotidiana, incluyendo educación, trabajo y justicia.
- 📜 El Congreso busca establecer normativas que regulen el uso de la IA, centrándose en áreas como seguridad, educación y justicia.
- 🏛️ Propuestas incluyen la creación de un Registro Nacional de Sistemas de IA para identificar actores y evaluar riesgos en el sector.
- ⚖️ Se debate si crear nuevas leyes desde cero o modificar las existentes para adaptarlas a las necesidades actuales de la IA.
- 🔍 La comisión de expertos destaca la importancia de tener una regulación seria, basada en conocimientos técnicos y científicos.
- 🔒 Se sugiere modificar leyes actuales para garantizar la transparencia y responsabilidad por daños atribuibles a la IA.
- 💻 Las experiencias previas en la regulación tecnológica en Argentina son vistas con cautela por su tendencia a quedar desfasadas.
- 👥 La responsabilidad legal por los daños causados por IA aún no está clara, planteando preguntas sobre quién debe ser responsabilizado.
- 🚨 Las preocupaciones sobre el uso de IA en seguridad incluyen la manipulación de datos y la privacidad de las personas.
- 👩⚖️ Se enfatiza la necesidad de sancionar comportamientos ilícitos en el entorno digital, manteniendo las leyes del mundo real.
- 🤔 Se propone un debate sobre la protección de derechos de autor en obras generadas por IA y su intangibilidad.
- 🚀 Se busca convertir a Argentina en un hub para atraer inversiones en desarrollo de IA mediante incentivos económicos.
- 🏫 Propuestas educativas incluyen la creación de laboratorios de IA en escuelas para capacitar a estudiantes y profesores.
- 🤝 A pesar del interés, aún no hay consenso entre diferentes bancadas sobre cómo avanzar en legislaciones unificadas.
- 🔄 Se anticipa que la regulación de la IA será un tema central en la agenda legislativa del próximo año.
La Inteligencia Artificial (IA) es una realidad en nuestras vidas. Lo saben en los colegios, los trabajos y los mercados financieros; también en el Poder Judicial, los Servicios de Inteligencia y las comisarías. En esta actualidad, y en ese delicado equilibrio entre la preservación de la información privada y la promoción de la iniciativa de los creadores, los representantes del Congreso buscan crear marcos normativos para un universo tan abstracto e inabordable como presente y masivo en nuestras cotidianidades.
En términos generales, todos los proyectos expresan el entusiasmo parlamentario para legislar los sistemas de generación y las prácticas resultantes de utilizar IA, con énfasis en tres áreas: seguridad, educación y Justicia. Las primeras iniciativas confluyeron en la Comisión de Ciencia y Tecnología, a donde asistieron especialistas del sector que insistieron en ser tenidos en cuenta para no dar pasos en falso a nivel normativo ante el vértigo de la innovación de los procesos. En ese marco, y luego de que Ámbito consulte a siete diputados y un experto, se registraron dos tendencias concretas: crear desde cero marcos normativos para el sector o bien modificar lo ya existente con énfasis en la IA.
“Existen muchísimas posibilidades de legislar sobre la IA y es necesario e inexorable hacerlo, pero con mucha seriedad, conocimiento y base científica", señaló la bonaerense Mónica Litza (Unión por la Patria), una de las firmantes de la propuesta para constituir un Registro Nacional de Sistemas de Inteligencia Artificial, que pretende constituir un registro general de los actores involucrados en el sector y establecer un esquema de puntuación en base a potenciales riesgos.
Imagen del interior del recinto del Congreso de la Nación creada con IA.
Su compañero de bancada y coautor del proyecto, el santafesino Diego Giuliano, subrayó que es una discusión que se está dando a escala global y que una normativa "no significa perturbar el avance de la IA, sino apelar a una razonable regulación". "Hay que poner sobre la mesa la discusión sobre los algoritmos, las instrucciones que se le dan a la IA y el conocimiento del Estado e instituciones especializadas para que el uso de la IA sea en beneficio al desarrollo, la educación, la formación y la evolución", manifestó.
Adepta a una posición de cambios específicos sobre la legislación actual, la salteña Pamela Calletti (Innovación Federal) propuso modificar la Ley N° 24.240 de Defensa al Consumidor para establecer mecanismos de transparencia y responsabilidad por los daños provocados por los sistemas: “Creo en la necesidad de establecer un marco legal que proteja los derechos de las personas. Obviamente deberá respetar la lógica de la tecnología de que se trate”. Sin embargo, se lamentó porque “Argentina tiene una Ley de Datos de antes de que surja el Facebook”, en referencia a la Ley N° 25.326 de Protección de los Datos Personales (sancionada en el 2000).
En simultáneo, la porteña Silvana Giudici (PRO) analizó que "en la Argentina ya tuvimos experiencia de tratar de regular cuestiones de innovación tecnológica y nos fue muy mal, porque siempre la regulación va varias décadas atrás de la innovación" y por eso sugirió "tratar un marco regulatorio bien amplio y flexible”. “En el Congreso hay infinidad de proyectos que no van en este sentido y que se ponen reglamentaristas o sumamente restrictivos a la hora de pensar una ley”, polarizó e indicó que “hay que ir haciendo pequeñas intervenciones a partir de hechos que son ilegales".
Esta última postura es compartida por Lucas Barreiro, cofundador de Privaia y especialista en protección de datos, que recordó que “ya existen varios marcos regulatorios que, si los pulís un poco y los arrastrás a los desafíos coyunturales y contemporáneos de la actualidad, los podés abordar más eficazmente". "¿Qué pasa cuando hay un daño generado por un sistema de IA? ¿Quién es el responsable, el desarrollador primigenio, el implementador, el que lo puso en el comercio, o va a ser en última instancia el usuario?”, se preguntó, y planteó que la solución está “en el actual Código Civil y Comercial, sin lugar a dudas. No hace falta una ley integral que diga todo el marco regulatorio para la IA”.
A esta postura se acerca el cordobés Juan Brügge (Encuentro Federal) quien replicó que “si se aplican las reglas del Código Civil y Comercial de la Nación ya hay un esquema de responsabilidad sobre lo que una IA decida o haga” y propuso la creación de un Consejo Asesor en Inteligencia Artificial para garantizar el uso responsable de la tecnología en el país. “La idea de una regulación es brindar más elementos para separar los distintos grados de responsabilidad entre quien diseña un sistema, quien lo usa y quien se ve afectado”, opinó y destacó la necesidad de “brindar reglas de juego claras para todos los involucrados, estableciendo las condiciones apropiadas para que quienes desarrollan estos sistemas cumplan exigencias mínimas que permitan reducir su responsabilidad frente a usos contrarios a lo que se diseñó”.
El Salón Azul del Senado recreado con inteligencia artificial.
Distintas entidades judiciales ya exaltan las potencialidades de la aplicación de IA en los procesos de investigación, mientras que en materia de seguridad comienzan las primeras inquietudes parlamentarias en dos sentidos: la vulneración de los datos y la manipulación de voces e imágenes (lo que se conoce como "deepfake") que, incluso, pueden corromper la intimidad sexual. Las regulaciones aún no se concretan y sobrevuela el interrogante de quién es el responsable por acciones delictivas generadas por la IA.
“No corresponde prohibir un sistema o un modelo, principalmente por la dificultad de individualizarlo. La misma utilización sana que puede hacer una persona de ese modelo la estaría perdiendo”, consideró Lucas Barreiro, quien puntualizó que algunos sistemas de generación “ya han implementado barreras de seguridad en torno al modelo, y si hay algún "prompt" (NdR: un pedido de un usuario) que la vulnere obviamente no se lo van a devolver. Es distinto lo que ocurre con los modelos que son abiertos, porque esas barreras pueden ser sorteadas por desarrolladores”.
Una percepción similar sobre este debate tuvo la diputada Giudici, quien sintetizó su mirada: “Todo lo que es ilegal en el mundo real pasa a ser ilegal también en el mundo virtual. Si está mal generar una estafa o está mal utilizar la voz de una persona modificada por IA, uno tiene que sancionar el delito”. “Hay que ser muy cuidadoso; la fórmula sería penalizar las conductas, penalizar a las personas que utilizan estas herramientas para vulnerar la privacidad o cometer un delito, y no intentar hacerlo al sistema o a la plataforma, porque además no podría una regulación nacional tener efectos sobre ellas”, insistió.
Giudici presentó un proyecto para reglamentar sanciones contra los delitos cometidos a través de las "deepfakes", iniciativa que tiene similitudes en redacciones de distintos bloques, como el de la chubutense Eugenia Alianiello (Unión por la Patria), cuyo equipo de trabajo respondió a este medio: “Hay una especie de corrimiento de lo que antes se entendía como delito concreto, donde había una cuestión real o fáctica. Pero eso no quita que detrás de la manipulación con la tecnología no anide un delito porque, sobre todo, se genera daño”. “Lo más concreto del asunto es la persona perjudicada”, reiteraron y reconocieron que “se trabaja sobre algo que está constantemente en transformación y cambio, un sistema con una dinámica que se transforma segundo tras segundo”.
Las manipulaciones de las vestimentas del Papa Francisco en el 2023, unas de las deepfake más virales en las redes.
Desde la bancada peronista expresaron otra preocupación: la creación de la Unidad de Inteligencia Artificial Aplicada a la Seguridad (UIAAS), bajo la órbita del Ministerio de Seguridad. A través de la resolución 710/2024 del 26 de julio, la oficialización de la dependencia le permitía "patrullar las redes sociales abiertas", "analizar imágenes de cámaras de seguridad en tiempo real" e "identificar patrones inusuales en las redes informáticas", entre otras funcionalidades. Unión por la Patria emitió un pedido de información. “No hubo contestación, pero tampoco lo están haciendo con ningún pedido, casi como política de gobierno”, explicaron a Ámbito.
Lucas Barreiro prestó atención a la posibilidad que tiene la UIAAS de utilizar de algoritmos para “predecir futuros delitos y ayudar a prevenirlos”, considerando que se daría “una presunción de culpabilidad previa por su comportamiento digital o por sus antecedentes, como una suerte de perfilamiento que ignora muchos otros aspectos y puede comenzar a tener en cuenta, por ejemplo, el lugar de residencia de una persona". “Entiendo que es una cuestión que merece ser observada por la población y que escapa incluso a una cuestión de seguridad pública como para no responder un pedido de acceso a la información", agregó.
“Estoy convencido de que el próximo año este será un tema central en la agenda legislativa”, señaló el cordobés Oscar Agost Carreño (Encuentro Federal) quien también solicitó readaptar el sistema legal argentino con respecto a las "deepfake" pero además entendió como prioritario el debate sobre la protección de los derechos de autor con obras creadas con IA. “¿Qué pasa cuando una obra es creada por una IA? ¿El creador es el desarrollador de la tecnología o el que emitió el "prompt"? ¿Cuál es el grado de creatividad que tiene que tener un "prompt" para ser considerado una obra?”, indagó Barreiro, quien coincidió en que la temática debe insertarse en la próxima agenda parlamentaria.
Dentro de las propuestas que apuntan a legislar para potenciar el uso de la IA en el país, se destaca la disposición de presupuestos mínimos para la Promoción del Desarrollo de la Inteligencia Artificial (IA), de autoría de Silvana Giudici, quien detalló: “Es un esquema de incentivos para que la Argentina sea un hub que atraiga inversiones en materia de desarrollo de IA y nuevas tecnologías. El volumen de los avances científicos hace que se ponga en marcha una carrera en el mundo por captar estas inversiones, y la Argentina tiene un potencial por las nuevas condiciones que ha fijado el Gobierno”. “La Argentina tiene ya cinco unicornios y es muy probable que podamos despegar en cuanto a nuevos desarrollos de IA”, interpretó.
Deepfake: Martín Menem estrechando la mano de Juan Carlos Pugliese, primer presidente de la Cámara de Diputados del retorno democrático.
Existe otra iniciativa que implica una inversión estratégica: la del catamarqueño Dante López Rodríguez (Unión por la Patria) para crear Laboratorios de Informática e Inteligencia Artificial (IA) en escuelas. En el ámbito educativo, Juan Brügge sostuvo que “es fundamental que los alumnos y docentes se capaciten en nuevas tecnologías que van a modelar el futuro próximo. Es necesario que los docentes sepan cómo introducir el uso de herramientas de IA en la currícula para que el alumno se beneficie” aunque ratificó que es indispensable “la transmisión de pensamiento crítico a los alumnos” como complemento.
“Existe potencial de desarrollo de la IA en el país porque hay profesionales muy capacitados”, reflexionó Barreiro y observó que “si el talento se sigue yendo hacia afuera y no hay escenarios competitivos, eso puede ser un gran problema”, mientras que pidió considerar si las inversiones en el sector “van a ser sobre todo de actores externos para utilizar la mano de obra, como si fuera una plaza atractiva, o si vamos a ser nosotros los dueños de los desarrollos de esos sistemas”.
En un contexto de oportunidades, los diputados consultados coincidieron en que aún no existen acuerdos entre las distintas bancadas para unificar proyectos, a pesar de que los criterios de implementación -como se ha visto- no se encuentran tan distantes. Restará un año de debate y escucha a consciencia para avanzar en pasos concretos que permitan normas que sostengan ese equilibrio: potenciar la tecnología del presente sin descuidar los perjuicios del futuro.