Desde que Thomas McCarthy no se le ocurriera un mejor término que inteligencia artificial (IA) para designar el nuevo campo científico y tecnológico que proponía a algunos de sus pares para desarrollar, la palabra pasó a convertirse en presa de malos entendidos, polémicas y que fueron como gasolina para incendiar discusiones, enfrascarse en disputas y debates, alterando puntos de vista de mentes que no concebían que se llamara inteligente a una máquina o a un software.
Lo cierto
es que a inicios de los años cincuenta del siglo pasado, había un entusiasmo
por las cuestiones computacionales, por lo menos había dos enfoques y
calificativos para denominar el incipiente campo de estudio de las denominadas
«máquinas pensantes», uno era la cibernética y el otro la teoría de autómatas,
por lo que McCarthy consideró que ambos términos eran limitados para responder
a lo que tenía en mente, para generar una nueva disciplina científica.
Por eso, McCarthy
eligió el término IA por considerarlo más neutro y más
global, lo que permitiría dar vida a un campo que abarcara todas las
capacidades cognitivas humanas y que al mismo tiempo pudieran ser simuladas por
máquinas, pero abierto a su estudio por parte de cualquier teoría o escuela de
pensamiento. Y fue eso que llevó a McCarthy a desplegar su idea en la
Conferencia de Dartmouth en 1956 y reunir a una pléyade de científicos, de lanzar
oficialmente la IA como campo de investigación
científica.
Lo que
desembocó en reyertas y disputas fue que de inmediato surgieron quienes no
aceptaron que se equipararan los procesos computacionales con la inteligencia
humana, que se consideró un despropósito y un ninguneo del homo sapiens.
No se podía comprender cómo se asociaban los procesos de IA con los biológicos
propios de la mente humana, ya que eran completamente disímbolos, aunque el
tiempo ha venido atemperando estas consideraciones. Eso no quiere decir que hoy
el debate y las desavenencias no sigan vigentes, ya que eso de la IA sigue siendo fuente de altercados, malentendidos y
controversias, tanto en el ámbito científico como en la percepción pública,
debido a la misma carga semántica y las expectativas depositadas por los
humanos en el calificativo de inteligencia o inteligente.
Más allá
de pendencias, interesante es que desde dicha Conferencia el estudio de la IA se
bifurcó en dos grandes corrientes: el conexionismo —enfocado en las redes
neuronales y el aprendizaje basado en datos— y el cognitivismo —dirigido hacia
la representación del conocimiento, el razonamiento y la lógica, buscando imitar
la manera en que los humanos piensan y resuelven problemas—. Al inicio fueron
los segundos los que dieron de que hablar: dieron paso a productos que
preludiaban grandes avances con sus sistemas expertos —efectuados por expertos
humanos que generaban reglas para que los programas las usaran para solucionar tareas
como el diagnóstico médico o la toma de decisiones en determinados sectores
como el energético, por ejemplo—, que deslumbraron en los años setenta a los
interesados en ese emergente campo científico. Con el tiempo, la IA, cargada de fases de optimismo y de estancamiento, ha
llegado hasta nuestros días arrastrando dos conceptos claves que identifican a
cada una de esas corrientes: lo simbólico y lo subsimbólico.
El
cognitivismo es un enfoque sobre todo simbólico, por lo que la cognición humana
se explica a través de la manipulación de símbolos y representaciones mentales,
postulando la existencia de un nivel simbólico irreductible que se sitúa por
encima del nivel físico o neurobiológico. Los símbolos, en este contexto, son
ítems semánticos sobre los que se realizan operaciones computacionales, y la
mente se concibe como una máquina simbólica capaz de procesar información de
manera representacional y formal.
Por su
parte, el enfoque conexionista es subsimbólico, que quiere decir que se enfoca
en la representación distribuida del conocimiento en redes neuronales, en lugar
de utilizar símbolos y reglas explícitas como se hace en la IA simbólica. En la
IA conexionista, el conocimiento se representa a través de patrones que sirven
de disparadores o activadores en las redes neuronales, lo que puede hacer que
sea más complicado o difícil de interpretar y explicar en comparación con la IA
simbólica, que usa símbolos y reglas para representar el conocimiento de manera
más explícita y transparente.
Hoy día
se puede decir que el conexionismo de ser el negrito en el arroz en los años
setenta del siglo pasado, ha ganado un peso significativo y han transformado
profundamente el campo de la IA. El
conexionismo ha tenido un efecto notable al ofrecer modelos que simulan cómo el
cerebro procesa la información mediante redes neuronales artificiales, lo que
ha desembocado en avances importantes en el llamado aprendizaje automático, el
reconocimiento de patrones y el procesamiento del lenguaje natural, que son los
campos más prometedores de la IA en la
actualidad. Es así como el enfoque subsimbólico, inspirado en la
neurofisiología, ha venido a dotar de soportes cercanos a la realidad biológica
de la cognición que los modelos simbólicos tradicionales. Pero como la historia
de la IA ha demostrado, no se puede dar por
muerto el cognitivismo —que no ha desaparecido ni ha sido completamente
reemplazado— y lo simbólico, ya que amos conviven en la actualidad y como
ejemplo tenemos que la psicología cognitiva sigue integrando elementos de ambos
enfoques, aunque la fuerza del conexionismo no se puede pasar por alto.
Pero lo importante
es entender que una disciplina que fue lanzada oficialmente en 1956, en donde
estaban definidas dos corrientes claras sigan vigentes hoy día, que esa división
filosófica que se produjo en los primeros días de la investigación sobre IA —la
simbólica y la subsimbólica— sigan todavía siendo piedra angular del desarrollo
de un campo que para unos está más sólido que nunca, y para otros se está
resquebrajando y empieza a dar muestras de entrar en una nueva fase de declive.
A pesar
del auge de lo subsimbólico, de que parece ser la vía más robusta para futuros
éxitos de la IA, todavía suenan los ecos defendidos por
los simbólicos: para que los equipos sean inteligentes, no es necesario
construir unos programas que imiten el cerebro, sino que es posible capturar
totalmente la inteligencia general con un programa apropiado de procesamiento
de símbolos y ya está el poder de cálculo y las toneladas de datos para que eso
pueda ser realidad. Pero una cosa es clara: si bien los investigadores implicados
en el presente en la IA consideran que están libres de
ataduras para evaluar lo que son los derroteros de la IA, será la observación posterior, la que se dé en unas
cuantas décadas, la que podrá discernir quien tiene la razón, en dónde falló lo
que hoy se pone en marcha y qué acontecimientos fueron los más sólidos.
@tulios41
Publicado en La Jornada Morelos