En 2025 la periodista Karen Hao publicó Empire of
AI, donde ofrece un análisis profundo y crítico sobre la evolución de
OpenAI y el impacto global de la IA. Basado en más de 260 entrevistas,
documentos internos y reportajes especializados, el libro no solo examina la
historia de OpenAI y su emblemático producto ChatGPT, sino que expone las
estructuras de poder, explotación y extracción que sustentan la revolución de
la IA contemporánea; señala a OpenAI como una organización nacida con ideales
altruistas que se ha convertido en una entidad corporativa dominante,
comparable a un imperio moderno.
La IA moderna requiere cantidades sin precedentes de
recursos: poder computacional de chips de alta gama, volúmenes masivos de
datos, trabajo humano para «limpiar» esos datos por salarios miserables y
consumo alarmante de energía y agua. Esa cadena de extracción se manifiesta en
trabajadores en Kenia procesando datos por salarios de supervivencia,
activistas del agua en Chile defendiendo sus recursos naturales y contra la
instalación de centros de datos; la apropiación masiva de propiedad intelectual
de artistas, escritores y creadores de contenido alrededor del mundo. Ese es el
modelo extractivista impulsado por la búsqueda de la inteligencia artificial
general (IAG) y que está por encima de consideraciones éticas, sociales y
ambientales.
OpenAI, en este análisis, emerge como el imperio
dominante, una entidad que ha consolidado más poder económico y político que
prácticamente cualquier estado-nación. Pero el imperio de Sam Altman, no sería
nada sin lo fortuito, donde descubrimientos accidentales —como mejoras técnicas
en el escalado de modelos o el uso de técnicas como el aprendizaje por refuerzo
con retroalimentación humana (RLHF)— redefinieron el campo sin un plan
deliberado hacia la construcción de la IAG. Estos ejemplos se extienden al desarrollo
improvisado de protocolos para entrenar modelos en miles de chips
simultáneamente, o el denominado scraping masivo de datos
que inesperadamente mejoró capacidades de codificación. Inicialmente OpenAI se
enfocaba en entornos de juegos para aprendizaje por refuerzo, y evidencia de
ese cariz fortuito es que Bill Gates tuvo un papel curioso en esto: él no
estaba convencido del terreno de los juegos para aplicar la IA, era partidario
de chats conversacionales de alto nivel que demostraran el valor de la
tecnología; después, quedó impresionado con el modelo de IA de OpenAI poco antes
del lanzamiento público de ChatGPT y convenció a Satya Nadella, CEO de
Microsoft de aprobar fuertes inversiones en OpenAI. En cierta medida ChatGPT
fue resultado de estas exigencias y visión particular de Gates.
Anteriormente la IAG era considerada imposible de lograr,
surgió de pronto de un cambio ideológico impulsado por figuras como Ilya
Sutskever —otrora jefe científico de OpenAI— y reforzado por Altman y por la
misma influencia de Larry Page, que no quería quedarse rezagado en la carrera.
Antes de OpenAI, los investigadores se centraban en tareas específicas; ahora,
la narrativa era que la IAG era el destino inevitable, alcanzarla se hizo con
un fervor casi religioso que raya en la «fe», con una convicción casi mesiánica
en la salvación o apocalipsis que racionaliza sacrificios éticos presentes por
promesas futuras inciertas.
Para Hao la IA ha desembocado en la conformación de «nuevos
imperios», donde, por ejemplo, OpenAI acumula un poder equiparable al de
potencias coloniales históricas ya que extrae recursos globales: datos sin
consentimiento, contrata mano de obra barata en países del tercer mundo, y
recursos naturales como energía y agua. Pero como imperio dominante OpenAI, es
quien marcó el camino y el ritmo de la industria de la IA, influyendo en
competidores como Google, Meta y Anthropic.
La validación científica en la IA va a contrapelo de la
tradición académica, ya que no hay visibilidad en los conjuntos de datos usados
por esas empresas. Incluso OpenAI no sabe siempre lo que contienen sus
conjuntos de entrenamiento porque los datos son demasiado grandes para
auditarse manualmente. Esa falta de capacidad para caracterizar o replicar los
datos utilizados para entrenar un modelo socava los fundamentos mismos de la
disciplina científica. Las innovaciones se aplican en productos comerciales
primero, luego se dan a conocer en papers tardíos e incompletos. Se prioriza
la velocidad sobre la transparencia, erosionando el escrutinio que impone la
investigación científica.
Otro tema destacado del libro es la llamada rivalidad
geopolítica entre Estados Unidos y China, que la autora tilda de absurda, ya
que se soslayan las contribuciones mutuas. Avances clave en deep learning,
por ejemplo las llamadas redes residuales (ResNet) fueron desarrolladas por
investigadores chinos en la universidad de Tsinghua, que fueron fundamentales
para el escalado que habilitó modelos como ChatGPT. Esas innovaciones abiertas
demostraron que el progreso al final es colaborativo, no una competencia de
suma cero, como se vende en este momento de feroz política proteccionista.
Hay una crítica a la visión utópica de Altman, quien
afirma que la IAG eliminará la pobreza y salvará empleos mediante la abundancia
económica; estas ideas están basadas en extrapolaciones especulativas de
productividad tecnológica, que soslaya las desigualdades actuales entre
sociedad y naciones, y los mismos riesgos del desplazamiento laboral. Lo
contrario es más factible: explotación laboral, impactos ambientales,
desinformación, sesgos y concentración de poder en elites tecnológicas. Hao
aboga por un modelo alternativo: sistemas específicos y éticos, como AlphaFold
en biología, con datos curados, transparencia y salarios justos, en lugar de
modelos generales masivos, lo que suena iluso en un momento de desaforada
competencia entre empresas y naciones.
Uno de los descubrimientos más reveladores de Hao es el «daño
horizontal»: cada comunidad afectada por el imperio tecnológico experimentó una
pérdida total de agencia para autodeterminar su futuro. Esta sensación de
impotencia ante fuerzas tecnológicas y económicas aparentemente imparables
constituye quizás el efecto más insidioso del desarrollo actual de la IA.
En fin, el libro ofrece una perspectiva necesaria en un momento en que la narrativa dominante sobre la IA oscila entre el optimismo ingenuo y el catastrofismo apocalíptico. Hao nos recuerda que las decisiones sobre el desarrollo de la IA son fundamentalmente políticas y éticas, no meramente técnicas, y que aún tenemos la capacidad de elegir un camino diferente si estamos dispuestos a cuestionar las estructuras de poder que actualmente dan forma a esta tecnología, que independientemente de la postura crítica que se tenga sobre la misma no cabe duda que es revolucionaria.
Publicado en La Jornada Morelos




0 comentarios:
Publicar un comentario