IA como poder de Estado: competencia, reglas y rendijas de cooperación

La inteligencia artificial concentra cuatro palancas que históricamente definieron el poder de los Estados: control de recursos estratégicos, dominio de cadenas de suministro, capacidad normativa y superioridad tecnológica. Los chips avanzados, los centros de datos, las normas técnicas y el talento especializado forman hoy una infraestructura política tan crítica como los oleoductos o los cables submarinos. Por eso la IA no es una industria más: es un campo donde se decide quién fija estándares, quién capta rentas y quién se protege de vulnerabilidades.

El punto de inflexión fue doble. En 2017, el Consejo de Estado chino lanzó el “Plan de Desarrollo de IA de Nueva Generación” con meta de liderazgo global en 2030; en 2022, Estados Unidos combinó subsidios con controles: la CHIPS and Science Act aprobó más de 50.000 millones de dólares para semiconductores, y el 7 de octubre impuso restricciones a la exportación de hardware y herramientas de fabricación de chips de alto rendimiento a China, actualizadas en 2023 para cerrar vías de elusión. La señal para aliados y rivales fue clara: la IA es asunto de seguridad nacional.

Qué se disputa: cómputo, chips y energía

La ventaja en IA depende del cómputo. Los modelos más avanzados exigen GPU de última generación, interconexiones rápidas y enormes presupuestos eléctricos. En 2024, NVIDIA dominaba el mercado de aceleradores con las series A100/H100, mientras AMD avanzaba con los MI300. La oferta de chips y de packaging avanzado (como CoWoS) se convirtió en cuello de botella, tanto como la maquinaria de litografía ultravioleta extrema, monopolizada por ASML, con ópticas de ZEISS y componentes clave en Japón (Tokyo Electron) y Estados Unidos (Synopsys, Cadence para EDA). Esta concentración geográfica —y el “monocultivo” de TSMC en Taiwán para nodos de 5 nm y menores— añade riesgo sistémico: un choque geopolítico o un desastre natural en el estrecho de Taiwán tendría efectos globales.

La energía es el otro limitante. La Agencia Internacional de la Energía estimó en 2024 que el consumo eléctrico de centros de datos podría duplicarse hacia 2026. Los reguladores locales reaccionan: Irlanda restringió nuevas conexiones de grandes centros de datos en Dublín desde 2021 por presión sobre la red, y comunidades en Estados Unidos condicionan permisos por agua y carbono. Esto no es ecología decorativa; son condiciones materiales de la política industrial: donde hay capacidad eléctrica, fibra y permisos ambientales, florece el cómputo y, con él, el poder de negociación.

El tercer pilar es el talento. Becas, visados y salarios compiten con las restricciones migratorias. Estados Unidos aún concentra investigadores de frontera y centros como OpenAI, Google DeepMind y Anthropic; China acelera su formación interna y retorno de perfiles; Europa, pese a liderazgo regulatorio, lucha por retener expertos. El resultado práctico: países con menos músculo financiero buscan estrategias de nicho (compute soberano compartido, clusters universitarios, compras públicas coordinadas) para no quedar relegados a usuarios pasivos de APIs extranjeras.

El terreno normativo: de Bruselas a Bletchley

Las reglas importan porque definen costes y barreras. La Unión Europea aprobó en 2024 la Ley de IA, primer marco horizontal que clasifica usos por riesgo, prohíbe prácticas específicas (como algunos sistemas de puntuación social por autoridades públicas) y fija obligaciones para proveedores y desplegadores. Más que un “bozal” a la innovación, la UE apuesta por traducir su poder regulatorio —ya ensayado con el RGPD— en ventajas industriales: confianza, interoperabilidad y mercado único de conformidad. El éxito dependerá de su ejecución técnica y de si el coste de cumplimiento incentiva a construir en Europa en lugar de huir.

Estados Unidos optó por una mezcla de estándares y poder ejecutivo. El NIST publicó en 2023 su marco de gestión de riesgos de IA; en octubre de 2023, la Casa Blanca emitió una orden ejecutiva que obliga a reportes de pruebas de seguridad para modelos “frontera” por encima de ciertos umbrales de cómputo y refuerza la evaluación de riesgos en infraestructuras críticas. Los compromisos voluntarios de 2023 con grandes empresas sentaron prácticas mínimas —red teams, divulgación de capacidades peligrosas, ciberseguridad—, que se buscan trasladar a compras públicas y contratos federales.

China, por su parte, regula por aplicación: normas sobre algoritmos de recomendación, IA generativa y “deep synthesis” exigen registro, seguridad y alineación con valores y seguridad nacional. Su Ley de Seguridad de Datos (2021) y la Ley de Protección de Información Personal (2021) ordenan la exportación de datos y refuerzan la soberanía informativa. El objetivo no es solo control político; también es incubar campeones locales sin renunciar a acceso selectivo a mercados exteriores.

En el plano multilateral, se abrió una ventana pragmática. El Reino Unido convocó en noviembre de 2023 la Cumbre de Seguridad de la IA en Bletchley Park, que culminó en una declaración firmada por Estados con posiciones rivales —incluida China— sobre la necesidad de evaluar riesgos y cooperar en investigación de seguridad. El G7, vía el proceso de Hiroshima, acordó principios y un código de conducta para IA avanzada. La OCDE actualizó en 2019 sus Principios de IA, y el Consejo de Europa adoptó en 2024 un Convenio Marco sobre IA, derechos humanos, democracia y Estado de derecho abierto a terceros países. La Asamblea General de la ONU aprobó en marzo de 2024 por consenso una resolución sobre IA “segura, confiable y de confianza”. No son tratados blindados, pero sirven como coordenadas compartidas para agencias y tribunales.

Defensa y disuasión: autonomía, algoritmos y control

El uso militar de IA no se discute en abstracto: ya está en marcha en guerra electrónica, inteligencia de señales, fusión de sensores y enjambres de drones. El Departamento de Defensa de EE. UU. lanzó en 2023 la iniciativa Replicator para desplegar sistemas autónomos “atribles” en 18–24 meses. La OTAN adoptó en 2021 su estrategia de IA y principios de uso responsable; ensaya aplicaciones en vigilancia marítima y defensa aérea. En el conflicto en Ucrania, se han visto sistemas de visión por computador en munición merodeadora y algoritmos que aceleran la identificación de objetivos, aunque los niveles de autonomía real varían. En 2024, investigaciones periodísticas reportaron el uso de herramientas algorítmicas por Israel en Gaza, como “Lavender”, generando debate sobre control humano significativo y derechos civiles. A falta de verificación independiente completa, el punto de fondo es claro: la línea entre asistencia y delegación de decisiones letales se difumina.

Las negociaciones sobre armas autónomas en la Convención de Ciertas Armas Convencionales de la ONU llevan años sin acuerdo vinculante. La consecuencia es un régimen de facto: principios blandos, desarrollo acelerado y pruebas en teatro. A corto plazo, donde sí hay espacio para coordinación es en interoperabilidad aliada, “guardrails” técnicos (geocercas, limitadores de objetivos) y auditorías post-hoc. A mediano plazo, una moratoria funcional sobre sistemas sin control humano significativo requiere verificación técnica y confianza que hoy no existen entre grandes potencias.

Datos, modelos y el peaje del acceso

La disputa por datos es menos ruidosa que la de chips, pero igual de política. El RGPD europeo, los regímenes de adecuación y el nuevo Marco de Privacidad de Datos UE-EE. UU. (2023) condicionan flujos transatlánticos. China restringe la salida de datos “importantes”; India aprobó en 2023 su ley de protección de datos con un enfoque más flexible para la localización. Para entrenar modelos generativos, la licitud del scraping se enfrenta a derechos de autor: litigios en EE. UU. y Europa contra grandes proveedores definirán qué datos son legítimos y a qué precio. Más allá de tribunales, se normaliza el peaje: acuerdos de licencias con medios, bancos de imágenes y repositorios de código.

El auge de modelos abiertos —Llama 2 de Meta en 2023, Mistral en Europa— introduce otra capa geopolítica: países con menos presupuesto de cómputo pueden adaptar modelos con fine-tuning y obtener autonomía relativa. La reacción regulatoria medirá cuánto margen se deja para publicar pesos y cuánta responsabilidad se impone a quien difunde o despliega. Si las normas elevan demasiado los costes de distribución abierta, el péndulo volverá a concentrar poder en plataformas cerradas.

Cooperación posible: dónde conviene compartir

En un entorno de rivalidad estructural, la cooperación no es romanticismo, es gestión de riesgos compartidos. Hay cuatro áreas con incentivos alineados:

Primero, evaluación y seguridad. Compartir metodologías de pruebas de modelos frontera, taxonomías de riesgos y datos sintéticos controlados para red teams reduce accidentes sin revelar capacidades sensibles. Los institutos de seguridad de IA del Reino Unido y de Estados Unidos firmaron en 2024 acuerdos para co-desarrollar pruebas; Japón y Canadá pueden sumarse vía GPAI. La estandarización en ISO/IEC JTC 1/SC 42 y trabajos de NIST ayudan a que auditores y reguladores hablen el mismo idioma técnico.

Segundo, ciberseguridad e infraestructuras críticas. La IA amplifica ataques y defensa; pactar mínimos comunes en autenticación, hardware roots of trust y respuesta a incidentes protege a todos contra actores no estatales. La coordinación puede ser sectorial (salud, energía) y aprovechar marcos existentes.

Tercero, bioprotección. Modelos cada vez más capaces de asistir diseño experimental exigen salvaguardas. La orden ejecutiva de EE. UU. ya obliga a evaluar riesgos de “bio”, y el G7 discute salvaguardas. Estándares de acceso escalonado y monitoreo de consultas sensibles son un terreno lógico para acuerdos.

Cuarto, transparencia en mercados de cómputo. Reportes agregados —no intrusivos— sobre capacidad instalada, consumo energético y huella hídrica permiten planificar redes y mitigar impactos. Aquí, reguladores y operadores pueden cooperar como ya lo hacen en telecomunicaciones o aviación.

Europa, Estados Unidos, China: estrategias que se cruzan

Estados Unidos prioriza control de la cúspide tecnológica: chips, nubes, talento y modelos frontera, con un mosaico de estándares “blandos” que se vuelven duros al penetrar compras públicas y contratos. China apuesta por masa crítica doméstica, sustitución de importaciones en semiconductores y control informacional; buscará autonomía de herramientas de diseño, litografía y software básico, aunque aún depende de varios cuellos de botella. Europa pretende ser árbitro normativo, pero también financia cómputo soberano y proyectos como JUPITER, el primer superordenador exaescala europeo (encargado en 2023), además de arquitecturas de datos industriales (Gaia-X) que aún deben demostrar tracción.

El choque no impide acuerdos tácticos. La Declaración de Bletchley fue una foto útil: admitió riesgos serios en modelos frontera y abrió la puerta a ejercicios de pruebas con participación cruzada. La pregunta es si esa cooperación técnica sobrevive a la próxima ronda de sanciones, a una crisis en Taiwán o a un litigio comercial masivo. La experiencia del 5G sugiere que cuando se cruza la línea de confianza, las redes se bifurcan durante años.

El Sur global: agencia realista en un tablero caro

La mayoría de países no va a fabricar EUV ni a entrenar modelos con cientos de miles de GPU. Su margen está en cuatro movimientos: consorcios regionales de cómputo —evitando dependencia bilateral total—; regulación clara y proporcionada que atraiga despliegues y talento; almacenamiento y gobernanza de datos de alto valor (agro, clima, salud) con reglas de acceso que generen retorno local; y compras públicas que creen demanda de soluciones locales. La UNESCO aprobó en 2021 una Recomendación sobre ética de la IA que varios países usan como punto de partida; la Unión Africana tiene desde 2022 un marco de datos que podría cristalizar en estándares sectoriales.

India, Brasil, Emiratos Árabes Unidos y Arabia Saudí compiten por hubs de cómputo con incentivos fiscales y energía barata; América Latina explora alianzas para centros de datos neutrales en carbono. El riesgo es replicar la extracción: alojar servidores, ceder datos y quedarse sin cadena de valor. La oportunidad está en servicios, adaptación de modelos abiertos y especialización sectorial. Los bancos de desarrollo pueden desempeñar un papel si financian infraestructuras compartidas con condiciones de portabilidad y gobernanza abierta.

Implicaciones prácticas para empresas y gobiernos

Para gobiernos: identificar cadenas críticas (chips, refrigeración, transformadores eléctricos, conectividad de fibra) y priorizar permisos y garantías de suministro; formar unidades de evaluación técnica que puedan auditar modelos y proveedores; alinear compras públicas con estándares de seguridad y transparencia; y negociar en bloque cuando el mercado local no baste para atraer inversiones. La coordinación con socios —estándares, pruebas, incidentes— tiene más retorno que la retórica.

Para empresas: mapear dependencias de cómputo y proveedores de chips, diversificar regiones cloud y prever restricciones exportadoras antes de escalar; incorporar marcos de riesgo (NIST AI RMF) y trazabilidad de datos de entrenamiento; y planificar costos energéticos e hídricos a cinco años, no a uno. La narrativa de “primero mover, luego cumplir” ya no es viable cuando reguladores exigen evidencia técnica y cuando clientes corporativos exigen seguridad contractual.

Para universidades y centros de investigación: consorcios de cómputo compartido, acuerdos de acceso a datos y colaboración con institutos de seguridad de IA. Publicar metodologías de evaluación, no solo benchmarks de rendimiento, ayuda a moldear la regulación y a evitar que el cumplimiento se defina exclusivamente desde despachos corporativos.

Para lectores que buscan contexto adicional y referencias, en soycodigo.org reunimos análisis sobre política tecnológica y enlaces a lecturas de fondo. También curamos libros y recursos esenciales en nuestra sección de recomendaciones, accesible desde la portada de https://www.soycodigo.org.

El panorama que emerge no es de guerra fría tecnológica total ni de utopía cooperativa. Es un juego de suma variable: competencia intensa en la cúspide, cooperación selectiva en seguridad y estándares, y mucha política industrial debajo. La IA, como antes la electricidad o Internet, se convierte en infraestructura de poder. Quien entienda por qué importan los chips, cómo se fijan las normas y dónde conviene coordinar, no solo seguirá titulares: podrá anticipar decisiones.

📷 Imagen referencial de archivo editorial

0 0 votes
Puntuación
Subscribe
Notify of
guest
0 Comentarios
Oldest
Newest Most Voted
Inline Feedbacks
View all comments

El Sonido más la Estimulación Corporal Eléctrica podrían tratar el dolor crónico.

Un equipo dirigido por la Universidad de Minnesota Twin Cities descubrió que la estimulación eléctrica del cuerpo combinada con el sonido activa la corteza somatosensorial o «táctil» del cerebro, lo que aumenta el potencial para usar la técnica para tratar el dolor crónico y otros trastornos sensoriales. Los investigadores probaron la técnica no invasiva en animales y están planeando ensayos clínicos en humanos en un futuro próximo.