Bifurcaciones de la inteligencia artificial

miércoles, 25 de junio de 2025

Desde que Thomas McCarthy no se le ocurriera un mejor término que inteligencia artificial (IA) para designar el nuevo campo científico y tecnológico que proponía a algunos de sus pares para desarrollar, la palabra pasó a convertirse en presa de malos entendidos, polémicas y que fueron como gasolina para incendiar discusiones, enfrascarse en disputas y debates, alterando puntos de vista de mentes que no concebían que se llamara inteligente a una máquina o a un software.

Lo cierto es que a inicios de los años cincuenta del siglo pasado, había un entusiasmo por las cuestiones computacionales, por lo menos había dos enfoques y calificativos para denominar el incipiente campo de estudio de las denominadas «máquinas pensantes», uno era la cibernética y el otro la teoría de autómatas, por lo que McCarthy consideró que ambos términos eran limitados para responder a lo que tenía en mente, para generar una nueva disciplina científica.

Por eso, McCarthy eligió el término IA por considerarlo más neutro y más global, lo que permitiría dar vida a un campo que abarcara todas las capacidades cognitivas humanas y que al mismo tiempo pudieran ser simuladas por máquinas, pero abierto a su estudio por parte de cualquier teoría o escuela de pensamiento. Y fue eso que llevó a McCarthy a desplegar su idea en la Conferencia de Dartmouth en 1956 y reunir a una pléyade de científicos, de lanzar oficialmente la IA como campo de investigación científica.

Lo que desembocó en reyertas y disputas fue que de inmediato surgieron quienes no aceptaron que se equipararan los procesos computacionales con la inteligencia humana, que se consideró un despropósito y un ninguneo del homo sapiens. No se podía comprender cómo se asociaban los procesos de IA con los biológicos propios de la mente humana, ya que eran completamente disímbolos, aunque el tiempo ha venido atemperando estas consideraciones. Eso no quiere decir que hoy el debate y las desavenencias no sigan vigentes, ya que eso de la IA sigue siendo fuente de altercados, malentendidos y controversias, tanto en el ámbito científico como en la percepción pública, debido a la misma carga semántica y las expectativas depositadas por los humanos en el calificativo de inteligencia o inteligente.

Más allá de pendencias, interesante es que desde dicha Conferencia el estudio de la IA se bifurcó en dos grandes corrientes: el conexionismo —enfocado en las redes neuronales y el aprendizaje basado en datos— y el cognitivismo —dirigido hacia la representación del conocimiento, el razonamiento y la lógica, buscando imitar la manera en que los humanos piensan y resuelven problemas—. Al inicio fueron los segundos los que dieron de que hablar: dieron paso a productos que preludiaban grandes avances con sus sistemas expertos —efectuados por expertos humanos que generaban reglas para que los programas las usaran para solucionar tareas como el diagnóstico médico o la toma de decisiones en determinados sectores como el energético, por ejemplo—, que deslumbraron en los años setenta a los interesados en ese emergente campo científico. Con el tiempo, la IA, cargada de fases de optimismo y de estancamiento, ha llegado hasta nuestros días arrastrando dos conceptos claves que identifican a cada una de esas corrientes: lo simbólico y lo subsimbólico.

El cognitivismo es un enfoque sobre todo simbólico, por lo que la cognición humana se explica a través de la manipulación de símbolos y representaciones mentales, postulando la existencia de un nivel simbólico irreductible que se sitúa por encima del nivel físico o neurobiológico. Los símbolos, en este contexto, son ítems semánticos sobre los que se realizan operaciones computacionales, y la mente se concibe como una máquina simbólica capaz de procesar información de manera representacional y formal.

Por su parte, el enfoque conexionista es subsimbólico, que quiere decir que se enfoca en la representación distribuida del conocimiento en redes neuronales, en lugar de utilizar símbolos y reglas explícitas como se hace en la IA simbólica. En la IA conexionista, el conocimiento se representa a través de patrones que sirven de disparadores o activadores en las redes neuronales, lo que puede hacer que sea más complicado o difícil de interpretar y explicar en comparación con la IA simbólica, que usa símbolos y reglas para representar el conocimiento de manera más explícita y transparente.

Hoy día se puede decir que el conexionismo de ser el negrito en el arroz en los años setenta del siglo pasado, ha ganado un peso significativo y han transformado profundamente el campo de la IA. El conexionismo ha tenido un efecto notable al ofrecer modelos que simulan cómo el cerebro procesa la información mediante redes neuronales artificiales, lo que ha desembocado en avances importantes en el llamado aprendizaje automático, el reconocimiento de patrones y el procesamiento del lenguaje natural, que son los campos más prometedores de la IA en la actualidad. Es así como el enfoque subsimbólico, inspirado en la neurofisiología, ha venido a dotar de soportes cercanos a la realidad biológica de la cognición que los modelos simbólicos tradicionales. Pero como la historia de la IA ha demostrado, no se puede dar por muerto el cognitivismo —que no ha desaparecido ni ha sido completamente reemplazado— y lo simbólico, ya que amos conviven en la actualidad y como ejemplo tenemos que la psicología cognitiva sigue integrando elementos de ambos enfoques, aunque la fuerza del conexionismo no se puede pasar por alto.

Pero lo importante es entender que una disciplina que fue lanzada oficialmente en 1956, en donde estaban definidas dos corrientes claras sigan vigentes hoy día, que esa división filosófica que se produjo en los primeros días de la investigación sobre IA —la simbólica y la subsimbólica— sigan todavía siendo piedra angular del desarrollo de un campo que para unos está más sólido que nunca, y para otros se está resquebrajando y empieza a dar muestras de entrar en una nueva fase de declive.

A pesar del auge de lo subsimbólico, de que parece ser la vía más robusta para futuros éxitos de la IA, todavía suenan los ecos defendidos por los simbólicos: para que los equipos sean inteligentes, no es necesario construir unos programas que imiten el cerebro, sino que es posible capturar totalmente la inteligencia general con un programa apropiado de procesamiento de símbolos y ya está el poder de cálculo y las toneladas de datos para que eso pueda ser realidad. Pero una cosa es clara: si bien los investigadores implicados en el presente en la IA consideran que están libres de ataduras para evaluar lo que son los derroteros de la IA, será la observación posterior, la que se dé en unas cuantas décadas, la que podrá discernir quien tiene la razón, en dónde falló lo que hoy se pone en marcha y qué acontecimientos fueron los más sólidos.

@tulios41

 Publicado en La Jornada Morelos 

0 comentarios:

 
Creada por laeulalia basada en la denim de blogger.