La regulación de inteligencia artificial de la Unión Europea lanza hoy una de sus pautas: La prohibición de la IA con un «riesgo inaceptable». Muchos han girado los ojos a los pequeños controlados, como Grok o Deepseek. ¿Están realmente en peligro de estar prohibidos en la UE?
Después de años de redacción, la Unión Europea lanzó el año pasado la Ley de Inteligencia Artificial, que regula la IA utilizada en Europapara evitar que cualquiera de ellos cause personas y propiedades.
El 2 de febrero es la fecha programada para una de sus pautas más importantes para entrar en vigor: La prohibición de toda la inteligencia artificial que supone «un riesgo inaceptable». Veamos lo que significa.
¿Qué son la IA con un riesgo inaceptable para la UE?
Como desglose TechCrunchy explica el propio Consejo de la Unión Europea, La inteligencia artificial se cataloga en cuatro categorías, de acuerdo con su nivel de riesgo.
La IA con un riesgo mínimo o cero afecta actividades como juegos de correo o filtros. No son peligros y no están regulados.
En la categoría de riesgo limitado, los chatbots y la IA generativa ingresan. Tienen una serie de obligaciones, como informar a los usuarios que su contenido se ha generado a través de AI.
Dentro del grupo con alto riesgo están la IA asociada con la salud. Por ejemplo, los que se usan para diagnosticar enfermedades. También conducción autónoma e identificación biométrica de personas involucradas en actividades criminales o investigaciones criminales. Estas IA están sujetas a transparencia rigurosa y evidencia de supervisión humana.
Finalmente, son Ia que supone un riesgo inaceptable. A partir de hoy, la UE puede prohibirlos o vetarlos al instante.
Dentro de esta categoría tenemos la IA que supone una amenaza para la seguridad, los derechos o los medios de subsistencia de las personas.
Por ejemplo, Se prohíbe la manipulación cognitiva conductualEs decir, la inteligencia artificial que manipula a las personas a través del engaño. También La IA que da una puntuación socialCómo valorar a las personas para su raza, apariencia, edad, peligro, situación económica, etc.
El reconocimiento facial en lugares públicos está prohibido, incluso para la policía. Hay excepciones, como la búsqueda de un criminal. En ese caso, una vez que se han explorado estas imágenes, deben borrarse.
La IA que explora vulnerabilidades como la discapacidad, la edad o el salario también está prohibida. Lo mismo se aplica a la IA que intenta explotar datos biométricos o de apariencia para predecir la orientación sexual de una persona, posible criminal, etc. es decir, No puede prejuzgar.
Una ley de lo necesario para proteger la privacidad
Tampoco son aceptados la IA que intenta predecir las emociones en el trabajo o los centros educativos. No puede usar fotos de personas extraídas de Internet o cámaras de vigilancia, para entrenar a la IA.
De acuerdo con estas reglas, la «corriente principal» que usamos todos los días, escribe chatgpt, gemini, grok o profundo, no debería tener problemas. Sin embargo, las empresas como objetivo, Apple o el Mistral francés se han negado a firmar el pacto en el que se comprometen a cumplir con la ley de la UE.
La regulación de la inteligencia artificial de la UE prohíbe la IA con un riesgo inaceptable a partir de hoy. Una regulación que a las empresas tecnológicas no les gusta. Vivimos oligarquías donde los monopolios tecnológicos se creen por encima de la ley. Sobre el bien y el mal. La UE, por el momento, no está dispuesta a consentir.
Saber Cómo trabajamos en Informática.
Etiquetas: Unión Europea, inteligencia artificial, viral
Con información de Telam, Reuters y AP








