Proyecto de ley para regular usos de la Inteligencia Artificial

blog

La inteligencia artificial (IA) se ha infiltrado en casi todos los aspectos de nuestras vidas, la regulación de su uso se ha convertido en una necesidad. Con el objetivo de garantizar un desarrollo seguro y ético de estas tecnologías, el Gobierno Chileno ha presentado un proyecto de ley innovador, basado en un enfoque de riesgos.

Esta propuesta, alineada con las directrices de la Unión Europea, clasifica los sistemas de IA en diferentes categorías de riesgo, asegurando una supervisión adecuada y proporcional a los posibles impactos de cada aplicación. 

En este artículo, exploraremos los detalles de esta iniciativa legislativa, sus implicaciones y cómo busca equilibrar la protección de la ciudadanía con el fomento de la innovación.

Un Enfoque Basado en Riesgos para la Regulación de la inteligencia artificial

La ministra de Ciencia, Aisén Etcheverry, explicó el enfoque del proyecto de ley destacando que no todos los algoritmos son iguales. “No es lo mismo un algoritmo destinado a influir las emociones que uno que pretende recomendar opciones de música”, afirmó. Esta diferenciación es crucial para comprender el enfoque basado en riesgos que sustenta la propuesta legislativa. 

El proyecto clasifica los sistemas de IA en cuatro categorías: riesgo inaceptable, alto riesgo, riesgo moderado y sin riesgo evidente.

Inteligencia Artificial

Categorías de Riesgo y sus Implicaciones

El proyecto de ley establece que cada empresa debe clasificar sus sistemas de IA en base a un listado de riesgos que será elaborado por la futura Agencia de Protección de Datos Personales. 

Esta agencia también será responsable de aplicar sanciones administrativas a quienes no cumplan con las normativas establecidas. Las categorías de riesgo se definen de la siguiente manera:

  • Riesgo Inaceptable

Los usos de IA considerados inaceptables son aquellos que atentan contra la dignidad de las personas. Ejemplos claros incluyen la creación de deepfakes con contenido sexual que exploten vulnerabilidades de niños, niñas y adolescentes. Otros usos prohibidos incluyen la manipulación emocional, la identificación biométrica en tiempo real con fines distintos a la seguridad pública y las técnicas de scraping facial.

  • Alto Riesgo

Las aplicaciones de IA de alto riesgo son aquellas que pueden causar perjuicios significativos para la salud, la seguridad, los derechos fundamentales o el medio ambiente. Un ejemplo es el uso de IA en procesos de contratación o selección de personal, donde un sistema podría evaluar y filtrar solicitudes de empleo, afectando así las oportunidades laborales de los individuos.

  • Riesgo Moderado

Los sistemas de IA de riesgo moderado son aquellos que no presentan riesgos significativos de manipulación o error en la interacción con personas. Un ejemplo de esta categoría es un chatbot de un servicio público que responde a consultas específicas dentro de su esfera de competencia, sin mayores implicaciones para la seguridad o los derechos de las personas.

  • Sin Riesgo Evidente

Finalmente, las aplicaciones de IA sin riesgo evidente son aquellas que no tienen el potencial de causar perjuicios significativos. Por ejemplo, un sistema que sugiere películas o canciones basadas en las preferencias del usuario no presenta riesgos evidentes para los derechos fundamentales o la seguridad de las personas.

Transparencia y Protección del Usuario

Uno de los pilares del proyecto de ley es asegurar que los usos de inteligencia artificial se realicen en condiciones de transparencia. Esto implica que las personas deben recibir información clara y precisa sobre cuándo están interactuando con una máquina. 

La transparencia es esencial para construir confianza y garantizar que los usuarios sean conscientes de las capacidades y limitaciones de los sistemas de IA con los que interactúan.

Fomento a la Innovación

El proyecto de ley también busca equilibrar la protección con la innovación. Para ello, faculta a los organismos del Estado para diseñar espacios controlados que faciliten el desarrollo, prueba y validación de sistemas innovadores de IA. Estos espacios, conocidos como “sandboxes”, permiten a las empresas experimentar con nuevas tecnologías en un entorno regulado antes de su introducción al mercado.

Además, se han incluido medidas de apoyo a empresas de menor tamaño, como el acceso prioritario a estos espacios de prueba y la participación en el Consejo Asesor Técnico de IA. Estas medidas aseguran que las pequeñas y medianas empresas también puedan beneficiarse del desarrollo y uso de tecnologías de IA, fomentando una innovación inclusiva y diversa.

Inteligencia Artificial

Colaboración Internacional y Normativa Europea

La propuesta de ley chilena se alinea con diversas normativas internacionales, incluyendo la legislación europea sobre IA y los principios consensuados por organismos como la Unesco y la OCDE. 

Esta alineación es estratégica, ya que permite que Chile converse y colabore efectivamente con otros países en el desarrollo y regulación de tecnologías de IA. La ministra Etcheverry destacó que este enfoque asegura que la normativa chilena sea compatible con los estándares internacionales, facilitando el comercio y la cooperación tecnológica.

El proyecto de ley para regular los usos de la inteligencia artificial en Chile representa un paso significativo hacia una gobernanza tecnológica responsable y ética. Al adoptar un enfoque basado en riesgos, el gobierno chileno busca proteger a la ciudadanía mientras fomenta la innovación y el desarrollo tecnológico. 

Esta iniciativa no solo pone a Chile a la vanguardia de la regulación de IA en América Latina, sino que también establece un marco robusto y adaptable para enfrentar los desafíos y oportunidades que presenta la inteligencia artificial en el futuro.

FAQs

¿Qué es el enfoque basado en riesgos en la regulación de IA?

El enfoque basado en riesgos clasifica las aplicaciones de IA según su potencial de causar daño, asegurando que las regulaciones sean proporcionales al nivel de riesgo asociado a cada sistema.

¿Cuáles son las categorías de riesgo definidas en el proyecto de ley?

El proyecto de ley define cuatro categorías de riesgo: inaceptable, alto riesgo, riesgo moderado y sin riesgo evidente.

¿Qué ejemplos de usos de IA se consideran inaceptables?

Los usos de IA considerados inaceptables incluyen la creación de deepfakes con contenido sexual y la identificación biométrica en tiempo real con fines distintos a la seguridad pública.

¿Cómo fomenta el proyecto de ley la innovación?

El proyecto de ley facilita la creación de espacios controlados para probar y validar sistemas innovadores de IA y apoya a las empresas de menor tamaño para que participen en el desarrollo de estas tecnologías.

¿Qué implica la transparencia en el uso de inteligencia artificial según el proyecto de ley?

La transparencia implica que los usuarios deben recibir información clara sobre cuándo están interactuando con una máquina, asegurando que sean conscientes de las capacidades y limitaciones de los sistemas de IA.

¿Cómo se alinea el proyecto de ley chileno con las normativas internacionales?

El proyecto de ley se basa en directrices internacionales, como la legislación europea sobre IA y los principios de la Unesco y la OCDE, asegurando la compatibilidad y colaboración internacional en la regulación de IA.

Encuentra el proyecto ley en el siguiente link: https://www.camara.cl/verDoc.aspx?prmID=17048&prmTIPO=INICIATIVA