Yuval Noah Harari, sin duda alguna es un destacado pensador
contemporáneo que se ha ganado el título de «historiador del futuro». Sus
análisis de eventos históricos se entrelazan con las tendencias tecnológicas
actuales, permitiéndole proyectar posibles caminos para la humanidad. Harari
explora los peligros y beneficios que las nuevas tecnologías conllevan,
ofreciendo una visión profunda de nuestro futuro.
En Nexus, Yuval Noah Harari nos lleva en un viaje fascinante a
través de la historia de la humanidad, vista a través del prisma de la
información. Desde las primeras inscripciones rupestres hasta las complejas
redes y plataformas de la IA, Harari explora cómo la información ha moldeado
sociedades, culturas y sistemas políticos desde la Edad de Piedra hasta la era
actual dominada por la IA. Con su prosa clara y su visión panorámica, Harari
teje una narrativa cautivadora que nos alerta sobre los peligros que acechan en
el horizonte digital. El título, Nexus, que significa conexión, refleja
el punto de convergencia entre historia, tecnología, cultura y política que se
explora a lo largo del libro. Harari argumenta que la IA crea nuevas formas de
conexión, redes de información que transforman radicalmente los esquemas de
información preexistentes, acercando cada vez más a humanos y máquinas.
La obra se divide en dos grandes secciones temporales. La primera se
centra en el pasado, donde se analiza la evolución de la información, desde la
comunicación oral hasta los medios masivos de comunicación, pasando por
diversos formatos/interfaces como las tablillas de arcilla, los periódicos, la
radio o la televisión. La segunda sección se enfoca en el presente y futuro,
examinando las nuevas modalidades de información: la revolución digital y el
papel de la IA en la configuración de nuestras dinámicas sociales y políticas.
Se enfatiza en los desafíos y riesgos asociados con el uso de la IA y su
impacto potencial en nuestra sociedad.
Según Harari, la información
trasciende su papel de reflejar la realidad, ya que también establece vínculos
cruciales entre los grupos humanos para
interpretar la realidad. A través de ejemplos históricos
que van desde textos sagrados hasta fenómenos contemporáneos como el populismo
y la desinformación en las redes sociales, el autor analiza cómo diversas
sociedades han aprovechado la información para moldear el orden social y
político.
En la sociedad contemporánea, la información se ha convertido en un
valor supremo, y se supone que su abundancia garantiza decisiones informadas.
Pero esta suposición descansa sobre un mito: la información es objetiva y
neutral (idea ingenua de la información). En realidad, la información es
una construcción subjetiva, influenciada por intereses y poderes, lo que
desafía la idea de que cantidad y calidad son sinónimos.
La ingenuidad de creer que la información es un espejo fiel de la
realidad ha sido explotada por discursos populistas y de la posverdad. Estos,
al apelar a emociones y prejuicios, polarizan y generan desconfianza. La IA, al
automatizar la desinformación y personalizarla, profundiza esta crisis,
relativizando la verdad y creando «burbujas de filtro». Las grandes
plataformas, que se presentan como herramientas de unión, en realidad fomentan
lo contrario. El peligro radica en la contradicción entre su imagen y sus efectos
concretos. Harari nos alerta sobre el surgimiento de una IA «objetiva», carente
de subjetividad, lo cual, paradójicamente, la convierte en una amenaza.
Según Harari, la IA es la expresión de una inteligencia «pura», carente
de pasiones, de racionalidad «fría», la hace muy atractiva y seductora, pero al
mismo tiempo eso constituye su mayor riesgo. La IA adquiere una capacidad que en
teoría la hace presentarse como no influenciada por opiniones, creencias o
emociones personales, lo que para muchos es una inteligencia objetiva que no se
apoya en dogmas o suposiciones. Esto es lo que lleva a Harari, a ver a la IA como
una fuerza transformadora más poderosa que cualquier potencia económica o
ideología.
La IA, pues, es el tema más candente del libro, que de acuerdo con el
autor está a punto de alcanzar un nivel de sofisticación suficiente (tal vez
cuando sea una IA general), para tomar decisiones que escapan al control
humano. En el momento que eso suceda la IA se convertiría, con su capacidad de
agencia, en un actor global con intereses propios, que entrarán potencialmente
en conflicto con los de la humanidad. La velocidad de desarrollo de la IA lleva
un ritmo exponencial, ante lo cual son rebasadas las instituciones políticas y
sociales para adaptarse. Esto la hace una fuerza disruptiva capaz de remodelar
rápidamente el orden mundial. La IA podría llevar al desarrollo de armas
autónomas que toman decisiones de vida o muerte sin intervención humana. Esto
presenta serios dilemas éticos y de seguridad para la humanidad.
Harari sostiene que la IA representa un riesgo significativo para la
democracia y la civilización en su conjunto. Argumenta que, sin un marco
regulatorio robusto, la IA podría ser empleada para manipular a las masas y
debilitar los fundamentos democráticos. Además, advierte sobre su potencial
para ser utilizada con fines destructivos que amenacen a la humanidad. A medida
que la IA siga avanzando en sofisticación, existe el peligro de que tome
decisiones cruciales en nombre de los gobiernos, incluyendo la gestión de
presupuestos, la asignación de recursos y el control social. Este escenario
plantea un riesgo particular si gobiernos populistas utilizan la IA para
facilitar la conformación de regímenes totalitarios.
El problema es que regular la IA es una cuestión intrincada que requiere
un equilibrio fino. Es fundamental considerar diversas perspectivas para no
limitar el avance de esa tecnología, pero también es crucial que los
responsables de legislar tengan una comprensión sólida de la IA.
Lamentablemente, esta combinación de conocimientos y experiencia es rara entre
los legisladores en nuestra nación y en muchas otras.
Pero Harari advierte que la IA pone en riesgo la civilización, pero ¿no
es una exageración? La historia demuestra que los humanos hemos sido nuestros
peores enemigos, nos gusta exterminarnos de mano de principios y varias estupideces
más, provocando devastadoras guerras y conflictos en nombre de ideologías,
creencias e intereses. La Segunda Guerra Mundial, con su estremecedor balance
de más de 60 millones de muertos, es un ejemplo trágico de nuestra propensión a
la autodestrucción.
Si tememos porque la IA puede ser «diabólica», en realidad lo que
estamos diciendo es que recelamos de que ella nos pueda superar en eso en donde
hemos dado cátedra. Hoy estamos al borde de una catástrofe climática por el
calentamiento global; hemos desestabilizado el clima de manera alarmante y con
ello nos estamos destruyendo a nosotros mismos. A pesar de ser conscientes de
que necesitamos de todos los ecosistemas de la biósfera para poder vivir como
especie, seguimos destruyéndolos, desestabilizando la atmósfera y contaminando
el planeta. Homo sapiens, pues, no es una perita en dulce, destaca por
su destreza mental y creativa, pero también sobresale por su maldad, crueldad y
afán de destrucción; los datos científicos son contundentes: la actividad
humana está provocando una extinción masiva de especies a un ritmo sin
precedentes. La defaunación, impulsada por la pérdida de hábitats, la caza y el
cambio climático, es una de las principales causas de esta crisis. Homo sapiens se ha convertido en la
fuerza geológica dominante, con un impacto desproporcionado en los ecosistemas.
La discusión sobre el papel de la IA, su
estatuto epistemológico y su «naturaleza peligrosa» que Nexus expone, se
asemeja al debate que enfrentamos hoy con la definición de vida. La biología
sintética, la virología y la astrobiología se enfrentan a entidades que pueden considerarse
«vivas» pero que no poseen una vida celular tradicional. Al fin de cuentas, hoy
la IA es una más de las expresiones o entidades que trastocan nuestras
certidumbres: nos lleva a ver en lo
inmediato consecuencias fatales para la humanidad. Pero vale la pena recordar la ley de
Amara, «tendemos a sobreestimar el efecto de una tecnología en el corto plazo y
a subestimar el efecto en el largo plazo».
Publicado en La Jornada Morelos 091024
@tulios41
0 comentarios:
Publicar un comentario