El Parlamento español ha dado un paso importante en la regulación de la inteligencia artificial (IA), aprobando un proyecto de ley que podría implicar multas de hasta 35 millones de euros para las empresas que no etiqueten correctamente los contenidos generados por IA. Este proyecto de ley tiene como objetivo frenar la propagación de “deepfakes” y otras prácticas nocivas, asegurando que los usuarios puedan identificar con claridad los contenidos creados por tecnologías de IA. La ley se centra en garantizar la transparencia y el uso ético de la IA, protegiendo tanto a las personas como a las empresas de posibles manipulaciones.
El Consejo de Ministros de España aprobó el proyecto de ley, el cual clasifica el etiquetado incorrecto de los contenidos generados por IA como una infracción grave. Las empresas que no cumplan con esta norma podrán enfrentar sanciones que oscilan entre los 7,5 millones y los 35 millones de euros, o entre el 2% y el 7% de su volumen de negocios global. La ley también contempla sanciones menores para startups y empresas de tamaño medio, lo que permite una mayor flexibilidad para las compañías más pequeñas que aún están en proceso de adaptación a estas nuevas regulaciones.
Oscar López, Ministro de Transformación Digital de España, señaló que esta legislación tiene como objetivo utilizar la inteligencia artificial para mejorar el mundo y no para difundir desinformación. En su declaración, López destacó que la ley busca promover el uso de la IA en áreas como la investigación médica, la prevención de desastres naturales y la mejora de la gestión del tráfico urbano en las ciudades españolas, dejando de lado su uso para difundir rumores o mentiras que podrían perjudicar a la sociedad.
La ley española se alinea con las directrices de la Ley de la UE sobre IA, que establece reglas de transparencia estrictas para los sistemas de IA considerados de alto riesgo. Este marco normativo también busca proteger a los ciudadanos de las manipulaciones y los abusos relacionados con el uso de tecnologías avanzadas, como los algoritmos de IA que pueden influir en decisiones de gran impacto, como las relacionadas con la justicia o el bienestar público. El proyecto de ley aún necesita ser aprobado por el Congreso de los Diputados antes de su implementación.
Además de la obligación de etiquetar correctamente los contenidos generados por IA, la ley española prohíbe otras prácticas engañosas, como el uso de técnicas subliminales. Un ejemplo de estas técnicas es la manipulación de decisiones a través de “imágenes o sonidos imperceptibles”, que pueden influir en las elecciones de los usuarios sin su consentimiento explícito. Este tipo de manipulación es cada vez más común en aplicaciones y plataformas que utilizan IA para dirigir las decisiones de los usuarios sin que estos sean conscientes de ello.
El proyecto de ley también establece que las empresas de IA no podrán clasificar a las personas según su raza, creencias políticas, religión u orientación sexual, basándose en sus datos biométricos o su presencia en las redes sociales. Esta disposición busca evitar la discriminación y garantizar que la IA no sea utilizada de manera injusta para crear perfiles que puedan perjudicar a ciertos individuos en función de características personales que no deberían influir en decisiones tecnológicas.
El uso de datos biométricos por parte de las empresas de IA también se ve regulado por esta ley. Las empresas que utilicen sistemas biométricos para controlar la asistencia laboral sin supervisión humana podrán enfrentarse a multas de entre 500.000 y 7,5 millones de euros, o entre el 1% y el 2% de su volumen de negocios anual. Esta medida busca evitar la automatización de decisiones sin control humano, lo cual podría tener consecuencias negativas tanto para los trabajadores como para la empresa en sí.
Finalmente, el proyecto de ley permite que el gobierno español suspenda un sistema de IA en caso de que cause un accidente grave, como la muerte de una persona. Esta disposición busca asegurar que las tecnologías de IA no se utilicen sin una supervisión adecuada, garantizando que los riesgos asociados con su uso sean gestionados de manera responsable. En resumen, España está tomando medidas concretas para regular el uso de la inteligencia artificial, protegiendo tanto a los usuarios como a las empresas de los posibles abusos de esta tecnología tan poderosa.
Autor: Maxim Fedorov