La entrada en acción de la Ley de Inteligencia Artificial de la Unión Europea (EU AI Act) ha puesto en alerta a Washington, dando lugar a un gran debate sobre el porvenir de la innovación global. El subsecretario de Estado para Asuntos Económicos de los Estados Unidos, Jacob Helberg, ha señalado que la ley no solo tiene por objetivo proteger el mercado europeo de la competencia exterior, sino que corre el riesgo de hacer que Europa quede «perpetuamente atrasada» en tecnología.
El costo de la regulación
La nueva normativa de la UE no consiste únicamente en una declaración de intenciones, sino que es un texto muy claro en la medida en que clasifica a los sistemas de IA en función de su nivel de peligro. Los sistemas de IA que son aplicables a la gestión de los recursos humanos, como la selección del personal o la evaluación del rendimiento, han sido calificados como de «alto riesgo».
Tal calificación supone tener una responsabilidad jurídica enorme para las empresas que operen en suelo europeo, incluidas las filiales de los enormes tecnólogos de EE. UU. Las sanciones por incumplimiento o por negligencia son muy agresivas, llegando hasta un umbral de US$35 millones o el 7 % de la facturación global anual de la compañía infractora.
Este marco legal ha cambiado el foco de las juntas generales: ya no se discute sobre la eficiencia técnica de un algoritmo de criba de currículos, sino sobre su «solvencia operativa» en una inspección legal. La trazabilidad es un seguro de vida para las empresas. Muchas de las empresas están llevando a cabo sistemas condicionales que priorizan la automatización sobre la supervisión y, además, muchas no cuentan con una documentación clara sobre cómo se llega a un resultado, lo que les sitúa en un punto de riesgo regulatorio y reputacional alto.
Prohibiciones problemáticas de la IA
Uno de los puntos más controvertidos entre la perspectiva estadounidense y la europea es la prohibición de utilizar IA para inferir los estados de ánimo o los niveles de estrés en función de una lectura de rasgos biométricos. El EU AI Act prohíbe métodos que pretendan inferir la estabilidad emocional a través de microexpresiones faciales o modulaciones de voz en el contexto laboral. Las opiniones en Europa indican que esas herramientas no disponen de un suficiente respaldo científico y que pueden llevar a la generación de discriminaciones en el marco de la empresa.
Para las compañías tecnológicas que han invertido millones en diseñar herramientas de videollamada inteligente pensadas para «leer» al candidato, esta misma normatividad representa un choque directo con sus respectivos modelos de negocio. La ley exige una «transparencia radical» y les obliga a explicar que sus sistemas no reproducen sesgos.
Si una organización ha dado preferencia a ciertos perfiles durante un periodo de tiempo prolongado, el sistema de IA reproducirá esos patrones de manera no auditada y de forma invisible si no se realiza un análisis de impacto adverso con anterioridad. El regulador europeo exige ahora que las muestras de entrenamiento sean representativas.
Supervisión por parte de un ser humano
La norma introduce un mandato no negociable: la supervisión por parte del ser humano efectiva. No basta con que un profesional firme una lista solo generada por una máquina. La norma exige que el ser humano tenga la formación y los poderes para anular el resultado del sistema si lo nuevo es injusto o erróneo. Lo que se persigue es evitar el «sesgo de automatización», la predisposición natural a confiar ciegamente en los datos aportados por el algoritmo.
Desde la óptica de la Pax Silica o de cualquier otro marco de seguridad tecnológica sucedido por Washington, la eficiencia de la máquina es una ventaja competitiva que no se debería ver desvirtuada por la burocracia.
