La Unión Europea (UE) se convertirá en la primera región del mundo en tener una Ley de Inteligencia Artificial (IA), con reglas claras y precisas para regular el uso de esa tecnología. En dos años entrará en vigor plenamente. Actualmente se encuentra en proceso legislativo.
El nuevo marco jurídico prohibirá los sistemas de inteligencia artificial “que se consideren una clara amenaza para los derechos fundamentales de las personas. Esto abarca los sistemas o las aplicaciones de inteligencia artificial que manipulen el comportamiento humano para eludir la voluntad de los usuarios; por ejemplo, juguetes que utilicen asistencia vocal con el fin de incitar a comportamientos peligrosos a los menores y sistemas que permitan la ‘puntuación social’ por parte de gobiernos o empresas, así como determinadas aplicaciones de actuación policial predictiva.
Además, se prohibirán algunos usos de sistemas biométricos; por ejemplo, los sistemas de reconocimiento de emociones en el lugar de trabajo, algunos sistemas para clasificar a las personas o la identificación biométrica remota en tiempo real con fines policiales en lugares públicos (con excepciones limitadas).
En un comunicado, la Comisión Europea clasifica los riesgos de la AI. Los sistemas catalogados como de riesgo inadmisible
, como los ya mencionados serán prohibidos por completo. Los de alto riesgo
deberán cumplir requisitos estrictos, “tales como sistemas de mitigación de riesgos, conjuntos de datos de alta calidad, registro de actividad, documentación detallada, información clara a los usuarios, supervisión humana y un alto grado de solidez, precisión y ciberseguridad. Los espacios controlados de pruebas facilitarán la innovación responsable y el desarrollo de sistemas de inteligencia artificial conformes.
Algunos ejemplos de estos sistemas de IA de alto riesgo son determinadas infraestructuras críticas; por ejemplo, en los ámbitos del agua, el gas y la electricidad; productos sanitarios; sistemas para determinar el acceso a instituciones educativas o para la contratación de personas; o determinados sistemas utilizados en los ámbitos de la policía, el control fronterizo, la administración de justicia y los procesos democráticos. Además, los sistemas de identificación biométrica, categorización y reconocimiento de emociones también se consideran de alto riesgo.
Plataforma en pro de la confiabilidad
La nueva legislación, que entrará en vigor plenamente en unos dos años, es mucho más que apenas un conjunto de reglas: es una plataforma para que las empresas y los investigadores de la UE se pongan al frente de la carrera por una IA que sea confiable
, señaló hace unas semanas el comisario europeo de Mercado Interno, Thierry Breton, responsable de temas digitales, cuando anunció que se había llegado a un acuerdo político para echar a andar el proceso administrativo y burocrático que hará realidad esa reglamentación (La Jornada, 8/12/23).
Las inteligencias artificiales de “riesgo mínimo –continúa el comunicado– es la inmensa mayoría de los sistemas de inteligencia artificial, tales como los sistemas de recomendación o los filtros de correo no deseado basados en la IA. (Éstos) disfrutarán de libertad y ninguna obligación al respecto, ya que estos sistemas presentan un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos. No obstante, de forma voluntaria, las empresas pueden suscribir códigos de conducta adicionales sobre estos sistemas”.
También hay un rubro llamado de riesgo específico de transparencia
, que son los robots conversacionales. Los usuarios deben ser conscientes de que están interactuando con una máquina. Las ultrafalsificaciones y otros contenidos generados por la IA deberán etiquetarse como tales, y los usuarios deberán ser informados cuando se utilicen sistemas de categorización biométrica o de reconocimiento de emociones. Además, los proveedores tendrán que diseñar los sistemas de manera que los contenidos sintéticos de audio, video, texto e imágenes se marquen en un formato legible por máquina y puedan reconocerse como generados o manipulados artificialmente
.
La Ley de Inteligencia Artificial de la Unión Europea determina que se impondrán multas a las empresas que no cumplan las normas, las cuales oscilarían entre 35 millones de euros o 7 por ciento del volumen de negocios anual mundial (si esta cifra es superior) por infracciones relacionadas con aplicaciones de inteligencia artificial prohibidas; 15 millones de euros o 3 por ciento por incumplimiento de otras obligaciones y 7.5 millones de euros o 1.5 por ciento por la presentación de información incorrecta. Se prevén topes más proporcionados para las multas administrativas a las pymes y las empresas emergentes en caso de infracción de la Ley de IA
.
Las nuevas normas se aplicarán de forma directa de la misma manera en todos los Estados miembros de la UE sobre la base de una definición de inteligencia artificial a prueba de futuro
, detalló la Comisión Europea.
Más información sobre el tema se puede consultar en: https://spain.representation.ec.europa. eu/noticias-eventos/noticias-0/las -claves-de-la-nueva-ley-de-inteligencia -artificial-2024-01-25_es