La Unión Europea está trabajando sobre el uso de los algoritmos de Inteligencia Artificial para elaborar un primer reglamento. Una nueva legislación que busca regular y restringir el uso de esta tecnología en aquellos casos que se consideran de alto riesgo como la vigilancia masiva y las puntuaciones de crédito social.
Además, las empresas que no cumplan esta normativa una vez aprobada y establecida en todos los países miembros y abusen de la Inteligencia Artificial se podrían enfrentar a multas similares a las que se aplican con el GDPR (Ley de Protección de Datos), con hasta 20 millones de euros o el 4% de su facturación.
La Comisión Europea dará a conocer el resultado de este primer reglamento este 21 de abril, con el que se persigue crear marco legal que permita la innovación, pero que garantice la seguridad y protección de los derechos humanos.
Restricciones planteadas en el borrador:
Prohibición del uso de IA para la "vigilancia indiscriminada", incluso para los sistemas que rastrean directamente a personas en entornos físicos o agregan datos de otras fuentes.
Prohibición de los sistemas que generan puntuación de crédito social, es decir, juzgan la confiabilidad de una persona según su comportamiento social o sus rasgos de personalidad predichos.
Se requiere autorización especial para el uso de "sistemas de identificación biométrica remota" como el reconocimiento facial en espacios públicos.
Será obligatorio notificar cuando las personas interactúan con un sistema de inteligencia artificial, a menos que esto sea "obvio por las circunstancias y el contexto de uso".
Nueva supervisión de los sistemas de inteligencia artificial de "alto riesgo", incluidos aquellos que representan una amenaza directa para la seguridad, como los coches autónomos, y los que tienen una alta probabilidad de afectar el sustento de alguien, como los que se utilizan para la contratación laboral, las decisiones judiciales y puntuación de crédito.
Se priorizará la evaluación de sistemas de alto riesgo antes de que se pongan en servicio. Con esto se pretende garantizar que estos sistemas sean explicables a los supervisores humanos y estén capacitados en conjuntos de datos de "alta calidad" probados para detectar sesgos.
Se creará una "Junta Europea de Inteligencia Artificial", compuesta por representantes de cada estado-nación, para ayudar a la comisión a decidir qué sistemas de IA cuentan como "de alto riesgo" y recomendar cambios a las prohibiciones.