View all AI news articles

La UE dice sí a un gran reglamento de IA

March 14, 2024

El gran apoyo de la UE a la Ley de IA se parece mucho a hacer bien una receta complicada, pero preguntarse si el pastel sabrá bien.

El Parlamento Europeo acaba de votar a favor de algo llamado Ley de IA. Imagínelo como un reglamento sobre cómo las empresas pueden crear y utilizar la IA, intentando garantizar que sea segura y justa para todos. Esta votación es muy importante porque significa que la UE está a la cabeza a la hora de tratar de averiguar cómo controlar la IA.

Esta es la primicia:

  • El Ley de IA es como una guía para usar la IA de forma segura.
  • Recibió mucho apoyo: 523 votos a favor, solo 46 en contra.
  • Las normas tienen por objeto garantizar que la IA no cause daño y se utilice de forma adecuada.

¿Qué contiene esta Ley de IA?

  • Establece reglas basadas en el riesgo que puede representar una IA. Por ejemplo, si es muy arriesgado, hay más reglas.
  • Algunos usos de la IA están muy prohibidos, como tratar de engañar a las personas o obtener puntajes injustos sobre ellas.
  • Pero no toda la IA tiene que seguir reglas estrictas. Algunos solo necesitan tener claro lo que están haciendo.

Esta ley aún no es ley. Ya casi está, solo necesita un sí más de un grupo llamado Consejo. Luego, hay que esperar un poco antes de que todo comience, por completo 2027.

Si las empresas no siguen estas reglas, podrían recibir una multa de mucho dinero. Estamos hablando a la altura de 7% de su dinero anual para cosas realmente malas.

La gente que creó este libro de reglas, como Dragoş Tudorache, creo que es un gran paso para garantizar que la IA se utilice de una buena manera, de forma que nos ayude sin pasarnos de la raya.

Pero no todo el mundo está muy contento. Algunos piensan que las reglas podrían haber sido más estrictas, especialmente para los grandes cerebros de la IA que pueden hacer un montón de cosas. Hubo un poco de idas y venidas, y algunas personas querían menos reglas para que Europa pudiera mantenerse a la altura de la IA.

Mirando hacia el futuro

Este libro de reglas de IA es solo el comienzo. La UE sabe que la IA va a cambiar muchas cosas: el trabajo, la escuela e incluso la forma en que los países se protegen. Por eso dicen: «Sigamos hablando y asegurémonos de que podemos actualizar las normas cuando sea necesario».

También quieren trabajar con otros países en este sentido porque la IA no se detiene en las fronteras. Está en todas partes, por lo que es mejor que todos puedan ponerse de acuerdo sobre lo básico que se debe y no se debe hacer.

Al final, la Ley de IA de la UE trata de garantizar que la IA haga más bien que mal, sin detener todas las cosas interesantes que puede hacer. Es un gran paso, pero aún queda mucho trabajo por hacer para garantizar que las normas funcionen y que la IA siga por el buen camino.

PREGUNTAS MÁS FRECUENTES

Dónde encontrar el documento original:

  • Sitio web de la Ley de Inteligencia Artificial de la UE: La fuente más directa es https://artificialintelligenceact.eu/. Este sitio ofrece los distintos borradores y el último texto adoptado.
  • Portal de legislación de la Unión Europea (EUR-Lex): Este sitio web oficial proporciona acceso a todos los documentos legales de la UE: https://eur-lex.europa.eu/. Puede buscar la Ley de IA utilizando palabras clave relevantes.

Puntos clave sobre la Ley de IA de la UE:

  • Finalidad: Es el primer marco legislativo importante diseñado específicamente para regular los sistemas de inteligencia artificial. Su objetivo es garantizar que la IA se desarrolle y utilice de forma segura, fiable y ética, al tiempo que fomenta la innovación en la UE.
  • Enfoque basado en el riesgo: La ley clasifica los sistemas de IA en función del riesgo:
    • Riesgo inaceptable: Los sistemas de IA que representan una clara amenaza para la seguridad o los derechos fundamentales están prohibidos (por ejemplo, los sistemas de puntuación social del gobierno).
    • Alto riesgo: Los sistemas en áreas sensibles (por ejemplo, empleo, aplicación de la ley, infraestructura crítica) tienen requisitos estrictos de transparencia, precisión y supervisión humana.
    • Riesgo limitado: IA con obligaciones de transparencia específicas (por ejemplo, informar a los usuarios que están interactuando con un chatbot de IA).
    • Riesgo mínimo: La mayoría de las aplicaciones de IA entran en esta categoría sin una nueva regulación (por ejemplo, filtros de spam impulsados por IA)
  • Cumplimiento: La ley establece multas por incumplimiento, que pueden ser bastante importantes en el caso de infracciones graves.

Recent articles

View all articles