Regulación de la inteligencia artificial

La IA avanza a una velocidad vertiginosa y los gobiernos se esfuerzan por encontrar la manera de regularla, pero no existe un manual global: algunos países quieren un control estricto, mientras que otros dejan que la IA se descontrole.

Estados Unidos: vuelve el salvaje oeste

Trump desechó la orden de supervisión de la IA de Biden, lo que significa que no existen reglas formales de IA en los EE. UU. en este momento.

Las empresas de IA ya no tienen que compartir datos de seguridad con el gobierno. Las grandes empresas tecnológicas tienen libertad para experimentar.

Todavía se aplican algunas protecciones de privacidad, pero es una situación de libertad para todos en comparación con Europa y China.

China: la IA debe obedecer al partido

Todavía no hay una ley oficial sobre IA, pero existen estrictas “medidas provisionales”.

La IA debe alinearse con los “valores socialistas fundamentales” y evitar el contenido crítico con el gobierno. Esto se puede comprobar en Deep Seek que ha salido recientemente y evita temas que pueden ser controvertidos.

Las empresas, especialmente las extranjeras, están estrictamente controladas, pero el gobierno se otorga excepciones.

Unión Europea: el enfoque más estricto y estructurado

La Ley de IA, aprobada en marzo de 2024, es la ley de IA más estricta del mundo. La Ley de IA es una normativa europea sobre inteligencia artificial (IA) que representa el primer marco regulador integral sobre IA de un importante organismo regulador.

Esta Ley clasifica las aplicaciones de IA en tres niveles de riesgo. En primer lugar, se prohíben aquellas aplicaciones y sistemas que suponen un riesgo inaceptable, como los sistemas de puntuación social gestionados por el gobierno, similares a los utilizados en China. En segundo lugar, las aplicaciones de alto riesgo, como las herramientas de escaneo de CV que clasifican a los candidatos a empleo, deben cumplir con requisitos legales específicos. Finalmente, las aplicaciones que no están explícitamente prohibidas ni clasificadas como de alto riesgo quedan, en gran medida, sin regulación.

Prohíbe la vigilancia predictiva y la IA que infiere raza, religión u orientación sexual.

Utiliza un enfoque basado en el riesgo: los sistemas de IA de mayor riesgo enfrentan regulaciones más estrictas.

¿El objetivo? Hacer que la IA sea más segura y al mismo tiempo dar a las empresas reglas claras que seguir.

India: a la espera de los acontecimientos

Todavía no hay una ley específica para la IA: las leyes existentes sobre privacidad, difamación y ciberdelito llenan los vacíos.

El gobierno exigió brevemente que las empresas de IA obtuvieran aprobación previa para los modelos «no confiables», pero la reacción condujo a una regla más suave: simplemente agregar exenciones de responsabilidad.

La regulación de la IA probablemente se producirá solo si beneficia a la economía de la India.

Reino Unido: probar primero, regular después

El Reino Unido ve la IA como una herramienta de crecimiento económico y no quiere regular excesivamente. El «plan de acción de oportunidades de IA» del primer ministro Keir Starmer se centra en probar la IA antes de establecer reglas.

Se están revisando las protecciones de derechos de autor para equilibrar la innovación con los derechos creativos.

Resumiendo

La UE está poniendo coto a la IA, China la está manteniendo políticamente “segura”, el Reino Unido y la India están esperando y Estados Unidos acaba de pisar el acelerador sin frenos. Si la IA está dando forma al futuro, será muy diferente según el lugar donde nos encontremos.

Deja un comentario