El gobierno buscar regular la IA para hacerla respetuosa de los principios democráticos. Eso es como pretender que un cuchillo promueva el bien común, sugiere el autor. La IA no es nada sin las personas que la ensamblan y mantienen y la legislación debería apuntar a ellos, propone.
En mayo de 2024 el gobierno ingresó al parlamento un proyecto de ley para regular la “inteligencia artificial” (IA). El motivo para hacerlo es que como toda tecnología, la IA tiene ventajas y desventajas, y éstas benefician a algunos y perjudican a otros.[1] Entre lo positivo el legislador destaca que la IA puede ayudar a predecir mejor, a optimizar los procesos, a asignar recursos “proporcionando grandes ventajas competitivas a las empresas y la economía nacional.” Entre los riesgos se identifica el desarrollo de técnicas que manipulan a las personas o que explotan sus vulnerabilidades para generar comportamientos dañinos. También alerta sobre tecnologías que permiten la categorización biométrica usando datos personales sensibles; la calificación social genérica (catalogar a partir de características o comportamientos); la identificación biométrica remota en espacios públicos en tiempo real; la extracción no selectiva de imágenes faciales; o la evaluación de los estados emocionales de una persona.
“La IA es hoy un Far West donde manda quien tiene poder o recursos.”
Estos beneficios y riesgos han llevado a diversos países a establecer regulaciones. En términos generales se pueden identificar tres grandes enfoques: la perspectiva norteamericana, que entiende la IA desde la economía y el mercado; la orientación china, que enfatiza asuntos vinculados con la soberanía del Estado; y la perspectiva de la Unión Europea, que inspira al proyecto chileno, y que junto con las consideraciones económicas y soberanas, considera los derechos fundamentales de las personas.[2]
En este texto mostraremos las complejidades de regular esta tecnología, los principales aspectos del proyecto chileno, y algunas de sus deficiencias, entre ellas su ambigua definición de inteligencia artificial. Se abordará también la relevancia que tiene la autonomía de los sistemas de IA y por qué la regulación debiese recaer sobre los humanos que los controlan. También se argumentará que no hay que obnubilarse con la actual IA, pues está evolucionando muy rápidamente, pero sí hay que preocuparse de la dependencia tecnológica que se está produciendo y de las amenazas a la soberanía nacional que esa dependencia conlleva.
¿Qué es la IA?
En términos muy gruesos la inteligencia artificial (IA) aparece como una tecnología que apunta a simular ciertos procesos mentales humanos. Como la mente se asocia usualmente con el centro de control de lo humano, la IA despierta muchas fantasías y temores. Para entender mejor este asunto, veamos qué significa “inteligencia” y “artificial”.
En occidente la idea de “inteligencia” está vinculada con aquello que distinguiría a los humanos respecto del resto de los seres y que le ha permitido desarrollar sociedades, tecnologías, culturas, etc. Ese algo que nos distinguiría ha recibido distintos nombres en la historia: “alma”, “mente”, “racionalidad”, etc.[3] A partir de la Ilustración y con el surgimiento de la ciencia, se comenzó a destacar la racionalidad y los procesos cognitivos por sobre otros aspectos como sentimientos, emociones, etc. El paso final, que se dio hace un siglo, fue proponer la inteligencia como la manifestación de esas facultades humanas. Hoy la RAE la define como “entendimiento, listeza, perspicacia, raciocinio, razón, sagacidad”.
“Aunque la paleta de funcionalidades de un sistema que usa IA es asombrosa, casi “sobrehumana”, ese sistema no deja de ser una máquina a la que alguien le da agencia, la mantiene, se beneficia de ella”.
Como resulta evidente, la inteligencia es un asunto extremadamente complejo de definir. Un biólogo, un ingeniero, un psicólogo o un educador la entenderán de manera muy distinta.[4] Por ello el término IA se presta a tantos equívocos y produce imaginarios que se prestan tanto para la ciencia ficción como para que el periodismo o la propaganda abusen del término y generen una nube conceptual difusa.
El concepto “artificial”, por otra parte alude a las creaciones técnicas que permiten a los humanos dar forma a nuestro hábitat, en un ciclo que es sin vuelta, según argumentan algunos investigadores.[5] Muchas veces el adjetivo “artificial” se usa como sinónimo de falso (por ejemplo, “ese gesto es artificial”). En el caso de la IA, sin embargo, apela una buena simulación de objetos naturales e incluso a creaciones que se ubican más allá de naturaleza (lana artificial, proteína artificial, un brazo artificial).
Como disciplina, la “inteligencia artificial” (IA) nació a mediados del siglo XX a partir del intento de simular (“automatizar”) ciertos procesos mentales. Inicialmente se centró en actividades que se creían más propiamente humanas: jugar ajedrez, hacer razonamientos lógicos, traducir o encontrar la salida de un laberinto. Luego se intentó simular el trabajo de médicos, constructores, etc. Todo esto apuntaba a construir máquinas digitales que llevaran a cabo estos procesos “autónomamente”. La “autonomía” de los objetos o sistemas tecnológicos, aunque apenas se mencione en el proyecto de ley, conforma el núcleo de sus preocupaciones. Un martillo no tiene autonomía; un WC tiene algo de autonomía (al tirar la cadena, el “sistema” genera respuestas autónomas: vacía el agua del estanque, luego cierra el paso del agua y comienza a llenarlo de nuevo, y cuando lo logra, se detiene). Los actuales sistemas autónomos usualmente tienen como sustento o núcleo redes neuronales digitales.
En paralelo al avance en autonomía, se desarrolló mucha investigación sobre máquinas que “aprenden” de la experiencia, esto es, a medida que funcionan, van mejorando su rendimiento a partir de sus errores y aciertos.[6]
Lo que hoy conocemos por IA, entonces, es una tecnología digital que integra autonomía con aprendizaje en lo que se conoce como “redes neuronales”. Se trata de softwares que simulan estas redes biológicas[7] y han conseguido resultados impresionantes que superan muchas funcionalidades humanas como la detección de patrones o la capacidad de hacer predicciones. El boom de las redes ocurrió en la primera década del siglo XXI pero al parecer no era una tecnología suficientemente innovadora o disruptiva como para que el legislador se preocupara.
Lo que produjo el salto cualitativo (y probablemente desató la preocupación del legislador) fue la aparición de “máquinas autónomas que aprenden” y procesan (trabajan con) el lenguaje humano. Esta tecnología llamada “IA generativa” está basada en máquinas fueron entrenadas con el boom de “big data” que se produjo desde comienzos del siglo XXI. Sus proyecciones son, por ahora, bastante impredecibles. La marca comercial que popularizó la idea fue “chatGPT” que es precisamente una interfaz de conversación (un chat) que genera respuestas a preguntas que del usuario. Hoy hay una infinidad de sistemas (de diferentes compañías y también “open source”) que generan texto, audio, imágenes y videos de manera muy similar a como lo hacemos nosotros, convirtiendo a estos sistemas en máquinas muy “humanas” y difuminando para el común de las personas la idea de que son “artificiales”.[8]
Esto es lo que en principio constituye su gran aporte y (también sus peligros): la manipulación de una población poco educada en estas novedades e indefensa frente a las grandes empresas tecnológicas o los delincuentes usuales. Pero sin duda lo más impactante está por venir y ocurrirá cuando estos sistemas (estas máquinas autónomas que aprenden) estén económica y tecnológicamente al alcance y control de todas las personas. Esos escenarios traen grandes oportunidades y amenazas, y por ello la necesidad de regular esas actividades.
El proyecto de Ley chileno
La regulación que se está discutiendo en Chile tiene una dificultad inicial: no precisa la noción de “IA” sino que se refiere a “sistema de IA”. El matiz es relevante.
“Sistema de IA: sistema basado en máquinas que, por objetivos explícitos o implícitos infiere, a partir de la entrada que recibe, cómo generar salidas tales como predicciones, contenidos, recomendaciones o decisiones que pueden influir en entornos físicos o virtuales. Los distintos sistemas de IA pueden variar en sus niveles de autonomía y adaptabilidad tras su implementación.”
Según esto un “sistema de IA” es un “sistema basado en máquinas”. Pero la ley no define “sistema” ni “máquina”, dos nociones muy vastas en la literatura tecnológica. La expresión “basado en máquinas” alude a que no es “natural” en el sentido que discutimos más arriba[9] y hay que conjeturar que se refiere a máquinas digitales (computadores).
“Esto es lo que en principio constituye el gran aporte y también el peligro de la IA: la manipulación de una población poco educada e indefensa frente a las grandes empresas tecnológicas o los delincuentes usuales”.
En mi opinión, la noción de “sistema” (de IA) por oposición a una “IA” a secas, escamotea asuntos clave. Quienes son “capaces de influenciar espacios físicos o virtuales” no son las IA, sino los sistemas que usan IA. Esto último habla de una diferencia importante. Una IA no hace nada si no está ensamblada (si alguien no la ensambló, si alguien no la mantiene, si alguien no la dirige) con un sistema que interactúa con el medio.[10] En el caso de Cambridge Analytics, por ejemplo, la manipulación política de personas no la produjo la IA, sino el “sistema” que la usó. Ese sistema capturó datos de poblaciones, testeo la adecuación de mensajes sobre esos datos y luego organizó el envío selectivo y solapado de mensajes. ¿Quién es responsable? ¿La IA? ¿El sistema que usó la IA? ¿Los diseñadores e implementadores? El proyecto de ley a ratos pareciera no distinguir entre ellos.
Un segundo problema se observa en el artículo 1 de la norma:
“La presente ley tiene por objeto promover la creación, desarrollo, innovación e implementación de sistemas de inteligencia artificial (“IA”) al servicio del ser humano, que sean respetuosos de los principios democráticos, el Estado de Derecho y los derechos fundamentales de las personas frente a los efectos nocivos que determinados usos pudieran irrogar.”
Probablemente hay aquí un descuido de redacción, pues el texto le asigna implícitamente agencia humana a estos sistemas (“que sean respetuosos de los principios democráticos… etc.”). Quienes debieran ser respetuosos de los principios democráticos son quienes los construyen, los comercializan, los instalan y ponen en funcionamiento, y quienes los usan. Nadie habría puesto en una ley: “promovemos la fabricación de cuchillos que sean respetuosos de los principios democráticos”, ni menos, refiriendo a sistemas con más autonomía, hablaría de un “WC que sea respetuoso de los principios democráticos”.
En mi opinión, este problema permea el texto: le asigna implícitamente a estos nuevos objetos técnicos (la IA) un estatuto de agencia que no tiene ninguna máquina por sí misma.[11] El gran tema aquí es la autonomía. Si dejo “funcionando” una máquina (le doy agencia temporal) y durante su funcionamiento produce un accidente, ¿quién es responsable? Es importante resaltar que aunque la paleta de funcionalidades de un sistema que usa IA es asombrosa, casi “sobrehumana” en muchos aspectos, ese sistema no deja de ser una máquina a la que alguien (un humano) le da agencia, la mantiene, se beneficia de ella, etc.[12]
En el artículo 2 excluye explícitamente de las regulaciones de esta ley a la defensa nacional, a las actividades de investigación, y componentes de IA de licencia libre y código abierto. De la experiencia regulatoria de otras tecnologías, el espíritu de estas restricciones parece razonable.
Luego, el artículo 5, que conforma el corazón de la ley, clasifica los sistemas según el riesgo del daño que puedan causar. Determina cuatro grupos: riesgo inaceptable; alto riesgo; riesgo limitado; y sin riesgo evidente.
Los sistemas de IA que se clasifican como riesgo inaceptable (Título II) están prohibidos. Entre ellos figuran los que listamos el inicio de este artículo, como los sistemas con alto potencial para manipular personas, ciertos usos de categorización e identificación biométrica, etc.
Para los sistemas de alto riesgo (Título III) la ley exige simplemente asegurar buena ingeniería digital: gestión de riesgos, gobernanza de datos, documentación técnica, sistema de registro de su actividad, y mecanismos de transparencia, de supervisión humana, medidas de ciberseguridad. Se espera que se les dé seguimiento durante su implementación y funcionamiento.
Para los sistemas de riesgo limitado (Título IV), hay solamente ciertas obligaciones de transparencia. Y para el resto (sin riesgo evidente) se exigen sólo asuntos administrativos como reportar incidentes graves, gobernanza (se crea un “Consejo Asesor Técnico de IA”).
El resto de la ley son asuntos generales de normativas que corresponden a temas de innovación y digitales más que a los de IA propiamente tal, como apoyo a la innovación, tratamiento de datos, propiedad intelectual, etc.
SEIS REFLEXIONES SOBRE LA LEY
1- La IA es hoy un Far West donde manda quien tiene poder o recursos. Los que controlan estas tecnologías pueden usarlas de maneras impensadas e irresponsables, o directamente responsable y maliciosa. Por ello la regulación de esta “tecnología” (la regulación sobre quienes la desarrollan, la controlan y usan) es tan importante.
2- Las tecnologías de IA forman parte de los desarrollos digitales de los últimos 30 años.[13] En ese sentido, la regulación debiera enfocarse en este conjunto de transformaciones (por ejemplo, el uso de los datos, las máquinas autónomas –sean o no dirigidas por IA–, las prótesis biomédicas, las bio y nanotecnologías, etc.) y no obnubilarse solo con la IA, pues muchos de sus desarrollos solo tienen valor integrados con otras tecnologías.
3- El proyecto chileno sigue muy de cerca la norma europea. Esto es bueno en términos de la preocupación por los derechos de las personas (y algún grado de coherencia entre lo técnico y lo legal). Sin embargo, no parece evidente que se considere lo dependientes que somos de las tecnologías del mundo que lidera esto (especialmente EU, EE.UU, y China). Sería bueno contar con medidas que den cuenta de nuestra situación nacional y regional, y que apunten a ir quebrando esa asimetría que nos tiene fundamentalmente como sujetos de extracción de datos y usuarios de los productos finales de esos grandes centros.
4- En la línea anterior, preocupa la ausencia de abordaje de la soberanía digital. De hecho, en el texto no aparece siquiera el término “soberanía”. Aquí surgen dos temas: Primero, las grandes compañías digitales (Google, Amazon, Facebook, etc.) están invadiendo ámbitos que no están regulados por la soberanía tradicional de los Estados (imágenes satelitales, datos poblacionales, de recursos naturales, derechos laborales, etc.). Segundo, una de las grandes motivaciones de la IA son las aplicaciones militares[14], que junto con los datos masivos (big data) pone desafíos muy elevados a los sistemas de defensa y soberanía nacional. Es decir, los riesgos no son solo para las personas, sino también para los Estados. Creo que esto amerita ser considerado hoy.
5- Una de las marcas que nos ha acompañado como país, es que usualmente nuestros gobernantes asocian el impulso a nuevas tecnologías con la importación de novedades de otras latitudes. En este proyecto esa huella puede rastrearse en el énfasis que tiene hacia la comercialización (e importación y recepción) de la IA en el país por sobre los temas educacionales y de investigación (se menciona proveedor, representante, importador, distribuidor, etc., mientras que el desarrollador y el ingeniero brillan por su ausencia). En esa línea se echa de menos medidas para incentivar el desarrollo local.[15]
6- Las regulaciones sobre IA debieran comprender, junto a los lineamientos sobre su desarrollo y sus límites, medidas para resguardar los derechos de los trabajadores del área y los de quienes se ven afectados por ella. También para que su incorporación a la sociedad no genere las desigualdades que hoy ya se hacen evidentes a partir de la experiencia que tenemos con las grandes compañías que monopolizan estas tecnologías. En este sentido, esta regulación debería ir acompañada de medidas que faciliten la incorporación de la IA en diferentes sectores de la sociedad, como el mundo del trabajo, de la salud y de la educación.
En resumen, es muy relevante que se esté pensando en regular la IA. Es importante entender que la IA es parte de un amplio abanico de transformaciones digitales, y que, como toda tecnología, la IA es sobre todo un know-how, un saber hacer no se puede importar.[16] Esto último es particularmente relevante para países como Chile que todavía están en proceso de conformar su identidad en términos de infraestructura y desarrollo sociotécnico. Es responsabilidad de todas y todos delinear cómo esta nueva tecnología disruptiva se enraíza en el tejido social, educacional, laboral, industrial y de servicios del país de una manera que no sólo no perjudique a las personas, sino que las incluya en sus desarrollos.

NOTAS Y REFERENCIAS
[1] Neil Postman. Five Things We Need to Know About Technological Change. 1998.
[2] Anu Bradford. Digital Empires. Oxford Univ. Press, 2023.
[3] Físicamente, ese algo se fue emplazando en la cabeza (“este joven tiene buena cabeza” decían nuestros abuelos) y asociando con el cerebro (nótese que los ojos, el hígado, una pierna, no nos distingue mucho de otros mamíferos). Solo quiero hacer notar que en este proceso histórico que lleva a la IA, el resto del cuerpo humano ha jugado un rol secundario.
[4] Cf. H. Gardner (1993). Las estructuras de la mente. La teoría de las inteligencias múltiples. FCE 1994.
[5] Aunque no es lo central de nuestro argumento, el cómo la tecnología “transforma” al ser humano es un gran tema. Hay quienes sostienen que, si se acabara la industria química, desaparecería la mitad de la humanidad en poco tiempo (por falta de alimentos, medicinas, calefacción, etc.). Hoy es posible ver una versión menos dramática de este fenómeno cuando se “corta” la energía eléctrica (y luego las comunicaciones) y todos quedamos como atontados sin saber qué hacer.
[6] El proyecto de ley tampoco menciona la noción de aprendizaje. El aprendizaje otorga el tema de evolución y adaptabilidad a las máquinas. Esta última aparece así: “los sistemas de IA pueden variar en sus niveles de autonomía y adaptabilidad tras su implementación”. Desafortunadamente no desarrolla ninguno de ambos temas, y se centra en una faceta del resultado de ellos, que la ley describe como “niveles de riesgo”.
[7] Hacia fines del siglo XIX, Ramón y Cajal descubrió que el sistema nervioso y el cerebro se componían de entidades llamadas neuronas, que se enlazaban como redes de comunicaciones de señales químicas y eléctricas. A mediados del siglo XX, investigadores modelaron matemáticamente esas neuronas y redes a partir de ellas. Estas “redes neuronales” (artificiales) son la base de la IA actual.
[8] Se cierra aquí un círculo que se abrió con el padre de la computación, Alan Turing, que definió a mediados del siglo XX, una prueba para determinar si una máquina era inteligente: debía responder preguntas humanas sin que un humano se diera cuenta que era una máquina. Los LLM podrían superar hoy ampliamente la prueba de Turing. Cf. Alan Turing. Computing Machinery and Intelligence. 1950.
[9] En este marco, por ejemplo, el famoso autómata de ajedrez (el “turco mecánico”) que consistía en un jugador muy maestro encerrado en una caja, que por medio de mecanismos respondía a las jugadas de un tablero, para la ley no sería un sistema de IA. Cf. https://es.wikipedia.org/wiki/El_Turco
[10] No es un tema para profundizar aquí, pero juega aquí la diferencia entre información y datos. El texto habla de “maquinas que infieren información” (Antecedentes, 1er párrafo). Realmente la IA son máquinas que infieren datos. (Información son datos con sentido, y el sentido lo da un agente, usualmente humano.) Esto es relevante, pues una IA (que realmente solo recibe datos y devuelve datos) no tiene agencia pues no “entiende” lo que entra y lo que sale. El uso que el “sistema” le da a esa IA es lo que le otorga el sentido a lo que genera ese “objeto” (la IA).
[11] La versión europea dice: “The purpose of this Regulation is to improve the functioning of the internal market and promote the uptake of human-centric and trustworthy artificial intelligence (AI), while ensuring a high level of protection of health, safety, fundamental rights enshrined in the Charter, including democracy, the rule of law and environmental protection, against the harmful effects of AI systems in the Union and supporting innovation.”
[12] La complejidad de la “cadena” de agencia puede ser grande. Puedo ordenar a una máquina que a su vez “decida” (use un algoritmo de decisión) para echar a andar otra máquina, que a su vez… Esta cadena de funcionamiento parecerá casi autónoma, pero es bueno entender que no existen (hoy y en el horizonte cercano) máquinas en las cuales la autonomía se confunda con la esencia misma de su ser, como los humanos.
[13] No hay consenso sobre cómo denominar estas transformaciones: se le han llamado revolución TIC, sociedad de la información, del conocimiento, mundo digital, cuarta revolución industrial, etc. Más allá del nombre, nos interesa resaltar el rol que las tecnologías digitales (datos, computadores, comunicaciones digitales) han jugado. Una mirada temprana: N. Negroponte. Being Digital. 1998. La visión del establishment (World Economic Forum): K. Schwabe.The Fourth Industrial Revolution. 2016. Una visión más crítica: C. Durand. Tecnofeudalismo. 2020.
[14] Palantir’s first-ever AI warfare conference. (The Guardian, 17 mayo 2024).
[15] Un ejemplo temprano de hace 200 años (1821): entre las condiciones para otorgar el monopolio de la navegación en ciertas áreas, el gobierno impuso como condición que cada uno de los barcos tuviera como primer oficial y la cuarta parte de la tripulación a ciudadanos de nacionalidad chilena “para que puedan adquirir conocimientos sobre la maquinaria (de los vapores) y manejo de ellos…”. (C. Véliz, Historia de la Marina Mercante, 1961).
[16] C. Hidalgo. Why Information Grows: The Evolution of Order, from Atoms to Economies. 2015.


Claudio Gutiérrez.