Dicen que la llamada Inteligencia Artificial (IA) va a revolucionar nuestras vidas como lo ha hecho Internet, pero en un período de adopción mucho más corto. Por eso es tan importante la propuesta de reglamento que está tramitando la Comisión Europea. Te contamos de qué se trata.
Fue en 2018 que la Unión Europea comenzó a hablar de la necesidad de una ley para regular la Inteligencia Artificial, abriendo un debate sobre los límites éticos y humanos de esta tecnología, en pos de respetar y resguardar los derechos fundamentales.
Luego, en febrero de 2020, la Comisión publicó el Libro Blanco sobre la inteligencia artificial: un enfoque europeo orientado a la excelencia y la confianza. En el Libro Blanco se definen las opciones existentes para alcanzar el doble objetivo de promover la adopción de la IA y de abordar los riesgos vinculados a determinados usos de esta nueva tecnología.
Según explica la introducción del documento, “la propuesta se basa en los valores y derechos fundamentales de la UE y tiene por objeto inspirar confianza en los ciudadanos y otros usuarios para que adopten soluciones basadas en la IA, al tiempo que trata de animar a las empresas a que desarrollen este tipo de soluciones. La IA debe ser un instrumento para las personas y una fuerza positiva en la sociedad y su fin último debe ser incrementar el bienestar humano. En consecuencia, las normas relativas a la IA presente en el mercado de la Unión o que afecte de algún modo a sus habitantes deben estar centradas en las personas, a fin de que la población tenga la seguridad de que la tecnología se usa de un modo seguro y en consonancia con la ley, lo que también implica respetar los derechos fundamentales”.
Esta iniciativa que busca establecer un marco normativo para la IA es pionera a nivel global y pretende convertir a Europa en un referente mundial.
¿Qué se entiende por Inteligencia Artificial?
Se define como el software que se desarrolla empleando una o varias de las siguientes técnicas: estrategias de aprendizaje automático/profundo, lógica y conocimiento, estadísticas/bayesiana. Este uso puede generar información de salida -como contenidos, predicciones, recomendaciones o decisiones- para un conjunto determinado de objetivos definidos por seres humanos e influir en los entornos con los que interactúa.
En cuanto a los alcances, el reglamento propone un amplio ámbito territorial y abarca a los diversos actores involucrados en el desarrollo de la IA: proveedores, importadores y distribuidores, tanto en la Unión Europea como en terceros países que puedan tener efectos dentro de la UE.
Con el fin de abordar los beneficios y riesgos de los usos y posibles aplicaciones de la IA, se establecieron cuatro niveles de riesgo, en función del posible peligro para la seguridad, la vida y los derechos fundamentales:
Sistemas de IA de riesgo inaceptable y terminantemente prohibidos:
Aquellos capaces de manipular el comportamiento humano o que puedan provocarles perjuicios físicos o psicológicos a las personas; los que pudieran ser empleados por las autoridades (o en su representación) para predecir información respecto a colectivos o grupos para identificar vulnerabilidades o circunstancias especiales; aquellos que impliquen la identificación biométrica o la videovigilancia masiva en directo por parte de las autoridades en espacios públicos, salvo en situaciones excepcionales relacionadas con la prevención o persecución de actividades delictivas. El listado estaría sujeto a revisión periódica para adaptarlo a las nuevas tecnologías.
Los sistemas incluidos en esta categoría solo se permitirán excepcionalmente para el cumplimiento de la ley y bajo autorización judicial o administrativa.
El solo hecho de que se considere posible la existencia de software que trascienda la conciencia de una persona humana y que sea capaz de manipular el comportamiento humano marca la importancia de la necesidad y urgencia de un marco regulatorio capaz de mitigar ciertos riesgos y consecuencias negativas.
Sistemas de IA de alto riesgo:
aunque no están prohibidos, implican un riesgo alto para los derechos y libertades individuales y, por tanto, deben estar sujetos a obligaciones especiales que garanticen su uso legal, ético, robusto y seguro. Esta lista también está sujeta a actualización periódica y comprende sistemas de toma de decisiones individuales automatizadas en diferentes ámbitos: educativo, identificación biométrica, selección de personal, de acceso a servicios públicos y privados (transporte aéreo, vigilancia de vehículos a motor); control de fronteras; sistemas para verificar el cumplimiento de la ley o evaluación de la situación crediticia de las personas, entre otros.
Estos sistemas solo se permiten si son sometidos a una evaluación y gestión del riesgo permanente. Cada actor deberá cumplir con obligaciones específicas, entre ellas:
- Gobernanza de datos (que cumplan con determinados estándares de calidad, supervisión de sesgos, etc.)
- Seguridad y supervisión humana: siempre tendrá que haber una persona humana con capacidad de control para mitigar posibles riesgos.
- Transparencia: que se especifiquen las características de funcionamiento del sistema, así como la identidad y datos del proveedor.
- Inscripción en una base de datos europea: previo a la puesta a disposición en el mercado.
- Superación de un test de conformidad y certificación.
Sistema de IA de riesgo medio/bajo:
Los que no implican un alto riesgo para los derechos y libertades, como determinadas tecnologías de menor sofisticación o capacidad de intrusión (asistentes virtuales, chatbots).
Solamente estarán sometidos a normas de transparencia para que los usuarios conozcan las características del sistema y sus posibles implicancias de uso.
Resto de sistemas de IA:
En principio, quedarían fuera alcance de este reglamento, y por lo tanto, no deben cumplir ninguna obligación. Los agentes de la cadena pueden elegir si deciden adherir a sistemas voluntarios de cumplimiento, como códigos de conducta o normas de transparencia para garantizar que sus características sean conocidas por los usuarios.
Por otro lado, la propuesta contiene reglas de transparencia para aquellos sistemas dirigidos a interactuar con personas físicas para generar o manipular imágenes, sonidos o contenidos de vídeo.
Aún es necesario que esta propuesta de reglamento sea revisada y debatida por el Parlamento Europeo y el Consejo, que podrán introducir enmiendas. Una vez aprobado, se aplicaría en todos los Estados de la UE.
De aprobarse y entrar en vigor, el incumplimiento conlleva sanciones que van hasta los 30 millones de euros y hasta el 6 % del volumen de negocio anual total a escala mundial del ejercicio financiero anterior.
Como hemos visto, se trata de una norma fundamental y necesaria para acompañar el desarrollo de estas tecnologías a nivel europeo y generar confianza en sus aplicaciones. Para muchos, todavía es de ciencia ficción, pero para otros, una prueba de que el futuro ya llegó.
Te recordamos que, si quieres profundizar tus conocimientos sobre economía y finanzas personales, están disponibles los cursos de Simple Finance, el aula virtual de Santander Consumer Finance, donde puedes aprender