La visión de Nexus

viernes, 1 de noviembre de 2024

 

Yuval Noah Harari, sin duda alguna es un destacado pensador contemporáneo que se ha ganado el título de «historiador del futuro». Sus análisis de eventos históricos se entrelazan con las tendencias tecnológicas actuales, permitiéndole proyectar posibles caminos para la humanidad. Harari explora los peligros y beneficios que las nuevas tecnologías conllevan, ofreciendo una visión profunda de nuestro futuro.

En Nexus, Yuval Noah Harari nos lleva en un viaje fascinante a través de la historia de la humanidad, vista a través del prisma de la información. Desde las primeras inscripciones rupestres hasta las complejas redes y plataformas de la IA, Harari explora cómo la información ha moldeado sociedades, culturas y sistemas políticos desde la Edad de Piedra hasta la era actual dominada por la IA. Con su prosa clara y su visión panorámica, Harari teje una narrativa cautivadora que nos alerta sobre los peligros que acechan en el horizonte digital. El título, Nexus, que significa conexión, refleja el punto de convergencia entre historia, tecnología, cultura y política que se explora a lo largo del libro. Harari argumenta que la IA crea nuevas formas de conexión, redes de información que transforman radicalmente los esquemas de información preexistentes, acercando cada vez más a humanos y máquinas.

La obra se divide en dos grandes secciones temporales. La primera se centra en el pasado, donde se analiza la evolución de la información, desde la comunicación oral hasta los medios masivos de comunicación, pasando por diversos formatos/interfaces como las tablillas de arcilla, los periódicos, la radio o la televisión. La segunda sección se enfoca en el presente y futuro, examinando las nuevas modalidades de información: la revolución digital y el papel de la IA en la configuración de nuestras dinámicas sociales y políticas. Se enfatiza en los desafíos y riesgos asociados con el uso de la IA y su impacto potencial en nuestra sociedad.

Según Harari, la información trasciende su papel de reflejar la realidad, ya que también establece vínculos cruciales entre los grupos humanos para interpretar la realidad. A través de ejemplos históricos que van desde textos sagrados hasta fenómenos contemporáneos como el populismo y la desinformación en las redes sociales, el autor analiza cómo diversas sociedades han aprovechado la información para moldear el orden social y político.

En la sociedad contemporánea, la información se ha convertido en un valor supremo, y se supone que su abundancia garantiza decisiones informadas. Pero esta suposición descansa sobre un mito: la información es objetiva y neutral (idea ingenua de la información). En realidad, la información es una construcción subjetiva, influenciada por intereses y poderes, lo que desafía la idea de que cantidad y calidad son sinónimos.

La ingenuidad de creer que la información es un espejo fiel de la realidad ha sido explotada por discursos populistas y de la posverdad. Estos, al apelar a emociones y prejuicios, polarizan y generan desconfianza. La IA, al automatizar la desinformación y personalizarla, profundiza esta crisis, relativizando la verdad y creando «burbujas de filtro». Las grandes plataformas, que se presentan como herramientas de unión, en realidad fomentan lo contrario. El peligro radica en la contradicción entre su imagen y sus efectos concretos. Harari nos alerta sobre el surgimiento de una IA «objetiva», carente de subjetividad, lo cual, paradójicamente, la convierte en una amenaza.

Según Harari, la IA es la expresión de una inteligencia «pura», carente de pasiones, de racionalidad «fría», la hace muy atractiva y seductora, pero al mismo tiempo eso constituye su mayor riesgo. La IA adquiere una capacidad que en teoría la hace presentarse como no influenciada por opiniones, creencias o emociones personales, lo que para muchos es una inteligencia objetiva que no se apoya en dogmas o suposiciones. Esto es lo que lleva a Harari, a ver a la IA como una fuerza transformadora más poderosa que cualquier potencia económica o ideología.

La IA, pues, es el tema más candente del libro, que de acuerdo con el autor está a punto de alcanzar un nivel de sofisticación suficiente (tal vez cuando sea una IA general), para tomar decisiones que escapan al control humano. En el momento que eso suceda la IA se convertiría, con su capacidad de agencia, en un actor global con intereses propios, que entrarán potencialmente en conflicto con los de la humanidad. La velocidad de desarrollo de la IA lleva un ritmo exponencial, ante lo cual son rebasadas las instituciones políticas y sociales para adaptarse. Esto la hace una fuerza disruptiva capaz de remodelar rápidamente el orden mundial. La IA podría llevar al desarrollo de armas autónomas que toman decisiones de vida o muerte sin intervención humana. Esto presenta serios dilemas éticos y de seguridad para la humanidad.

Harari sostiene que la IA representa un riesgo significativo para la democracia y la civilización en su conjunto. Argumenta que, sin un marco regulatorio robusto, la IA podría ser empleada para manipular a las masas y debilitar los fundamentos democráticos. Además, advierte sobre su potencial para ser utilizada con fines destructivos que amenacen a la humanidad. A medida que la IA siga avanzando en sofisticación, existe el peligro de que tome decisiones cruciales en nombre de los gobiernos, incluyendo la gestión de presupuestos, la asignación de recursos y el control social. Este escenario plantea un riesgo particular si gobiernos populistas utilizan la IA para facilitar la conformación de regímenes totalitarios.

El problema es que regular la IA es una cuestión intrincada que requiere un equilibrio fino. Es fundamental considerar diversas perspectivas para no limitar el avance de esa tecnología, pero también es crucial que los responsables de legislar tengan una comprensión sólida de la IA. Lamentablemente, esta combinación de conocimientos y experiencia es rara entre los legisladores en nuestra nación y en muchas otras.

Pero Harari advierte que la IA pone en riesgo la civilización, pero ¿no es una exageración? La historia demuestra que los humanos hemos sido nuestros peores enemigos, nos gusta exterminarnos de mano de principios y varias estupideces más, provocando devastadoras guerras y conflictos en nombre de ideologías, creencias e intereses. La Segunda Guerra Mundial, con su estremecedor balance de más de 60 millones de muertos, es un ejemplo trágico de nuestra propensión a la autodestrucción.

Si tememos porque la IA puede ser «diabólica», en realidad lo que estamos diciendo es que recelamos de que ella nos pueda superar en eso en donde hemos dado cátedra. Hoy estamos al borde de una catástrofe climática por el calentamiento global; hemos desestabilizado el clima de manera alarmante y con ello nos estamos destruyendo a nosotros mismos. A pesar de ser conscientes de que necesitamos de todos los ecosistemas de la biósfera para poder vivir como especie, seguimos destruyéndolos, desestabilizando la atmósfera y contaminando el planeta. Homo sapiens, pues, no es una perita en dulce, destaca por su destreza mental y creativa, pero también sobresale por su maldad, crueldad y afán de destrucción; los datos científicos son contundentes: la actividad humana está provocando una extinción masiva de especies a un ritmo sin precedentes. La defaunación, impulsada por la pérdida de hábitats, la caza y el cambio climático, es una de las principales causas de esta crisis. Homo sapiens se ha convertido en la fuerza geológica dominante, con un impacto desproporcionado en los ecosistemas.

La discusión sobre el papel de la IA, su estatuto epistemológico y su «naturaleza peligrosa» que Nexus expone, se asemeja al debate que enfrentamos hoy con la definición de vida. La biología sintética, la virología y la astrobiología se enfrentan a entidades que pueden considerarse «vivas» pero que no poseen una vida celular tradicional. Al fin de cuentas, hoy la IA es una más de las expresiones o entidades que trastocan nuestras certidumbres:  nos lleva a ver en lo inmediato consecuencias fatales para la humanidad. Pero vale la pena recordar la ley de Amara, «tendemos a sobreestimar el efecto de una tecnología en el corto plazo y a subestimar el efecto en el largo plazo».

Publicado en La Jornada Morelos 091024

@tulios41

0 comentarios:

 
Creada por laeulalia basada en la denim de blogger.