Industrias creativas y música

miércoles, 10 de diciembre de 2025

 

Se nos repite, casi como un mantra, que vivimos en la era de las industrias creativas, un tiempo en el que la creatividad, impulsada por la segunda ola de masificación de internet a principios del siglo XXI, se ha convertido en el motor de una nueva economía. Para nadie es un secreto que las redes sociales y la conectividad global se difundieron prometiendo un mundo donde los beneficios de la revolución digital llegarían a todos, pero especialmente a quienes, desde la literatura hasta la gastronomía o la arquitectura, desde la música hasta el diseño o los deportes, podían transformar su talento en oportunidades económicas. En este escenario, se creía que los sistemas de producción autoorganizados, como los describía Yochai Benkler, no solo competirían con los modelos tradicionales, sino que los superarían, mientras que Richard Florida, en su influyente La clase creativa, imaginaba un futuro en el que los artistas y creadores serían los dueños de su propio destino económico. La promesa era clara: en la era de internet, los beneficios serían para todos. Vean lo choice y que los doomers han cambiado

Sin embargo, como ocurrió con la contracultura de los años sesenta —que surgió como una crítica radical al capitalismo pero terminó siendo absorbida y convertida en un motor de innovación para el mismo sistema que cuestionaba—, las industrias creativas no escaparon a una paradoja similar. Lo que comenzó como una alternativa emancipadora, donde la creatividad y la innovación rompían con las estéticas comerciales, terminó por convertirse en una extensión institucional y comercial de las lógicas capitalistas. La creatividad se redujo a un mero recurso económico, un valor agregado que incrementaba el precio simbólico de las mercancías y convertía la expresión artística en un activo escalable. Este giro se refleja en la proliferación de términos como «economía naranja», «distritos creativos» o «clústeres culturales», que, en la práctica, están orientados al turismo, la propiedad intelectual, la competencia entre ciudades y, sobre todo, la precarización del trabajo cultural.

En el ciberespacio, la promesa de democratización también se desvaneció rápidamente. Internet, que en sus inicios parecía un territorio ideal para la libertad y horizontalidad, pronto se plataformaizo o plataformizó. Surgieron empresas que, bajo el discurso de la innovación y la creatividad, terminaron por concentrar el poder en unas cuantas manos. Hoy, desde las artes —publicaciones, películas, música, streaming, cómics, venta de libros, salas de cine, juegos, lucha libre, estaciones de radio— hasta las finanzas y los econegocios, casi todo es “plataformizable” y, por tanto, susceptible de ser controlado por monopolios u oligopolios. Mientras muchos observaban con preocupación esta concentración, Peter Thiel, en De cero a uno (2014), argumenta que «la competencia es para perdedores», que los monopolios son sanos, y aconseja a las empresas monopolizar sus dominios, justificando que, si los consumidores se aglomeran en torno a ciertas plataformas, es porque las mismas satisfacen sus demandas.

El campo musical —primordial en el campo de las industrias creativas— es, quizá, el ejemplo más elocuente de esta transformación. Durante décadas, los artistas sufrieron contratos leoninos que los dejaban al margen de las ganancias. La llegada de internet y las nuevas tecnologías digitales parecieron cambiar las reglas del juego: democratizaron la grabación y distribución musical, fragmentaron las audiencias y restaron poder a los intermediarios tradicionales. En la era analógica, el mercado de la música grabada tenía a músicos, compositores y artistas discográficos en un lado, y los fans u oyentes en el otro. Entre estos extremos estaban quienes gestionaban las interacciones de ambos: un número reducido de sellos discográficos te tamaño descomunal, que controlaban el acceso de los melómanos o fans a los artistas, y de éstos con sus escuchas o seguidores. Internet brindó la posibilidad de distribuir la música de manera gratuita e instantánea por todo el mundo. Fragmentó a las audiencias en un sinfín de comunidades en línea, provocando que la televisión, la radio y la prensa escrita perdieran gran parte de su poder para marcar tendencias. Las redes sociales dieron a los artistas la capacidad de llegar directamente a sus fans por primera vez, abriendo un sinfín de nuevas formas de generar ingresos, como la venta directa de álbumes, entradas y merchandising. También facilitaron el acceso al capital, permitiendo a los artistas pudieran financiar álbumes y vídeos ambiciosos fuera del sistema discográfico, a través de esquemas de crowdfunding permitiendo que los mismos fans financiaran a sus artistas.

Si bien hoy los artistas y/o músicos tienen una relación más equitativa con los sellos discográficos, asociándose para acceder a capital, gestionar sus derechos y distribución, y acceder a personal cualificado de marketing y promoción, así como mapas detallados que les indican dónde deben concentrar sus esfuerzos para llegar a audiencias determinadas. También es cierto, que la aparición de plataformas de streaming ha terminado por generar una concentración de distribución musical en un grupito de plataformas.  El lucrativo mercado del streaming está dominado por Spotify y unas cuantas empresas propiedad de las grandes tecnológicas. En donde doomers y choice se dieron la mano.

Únicamente tres sellos discográficos —Universal Music Group, Sony Music Entertainment y Warner Music Group— controlan actualmente casi el 70% del mercado mundial de música grabada, y también son propietarios de las tres editoriales musicales que concentran casi el 60% de los derechos globales de las canciones. Estas últimas basan su poder en la acumulación de derechos de autor. En Estados Unidos, para las grabaciones posteriores a 1978 la duración de los derechos de autor es la vida del autor más setenta años adicionales, o, en el caso de las «obras por encargo», noventa y cinco años desde su publicación. En el caso de México, es aún más absurdo: toda la vida del autor más 100 años después de su muerte —si fueran dos o más coautores hasta que muera el último empiezan a correr los 100 años—, mismo esquema se aplica a las llamadas «obras por encargo» que derivan de relaciones laborales. 

También es cierto que resultado de que hoy día la música es mucho más barata de producir y distribuir, y que internet ha generado más competencia, las tasas de regalías son más altas que nunca. A diferencia de los años 90 cuando las regalías eran den 5%, ahora el 25% es la norma, e incluso algunas discográficas pagan hasta el 50% en caso de que los músicos no reciban anticipo alguno. Pero ese esquema se desdibuja cuando la música se reproduce en Spotify. Por ejemplo, Spotify paga a los artistas entre 0.003 y 0.005 dólares por reproducción, lo que equivale a aproximadamente, lo que significa que en promedio, un artista puede ganar entre 3 y 5 dólares por cada 1,000 reproducciones (shre.ink/oUhA).

Para tener una idea de esto, Spotify distribuye los ingresos por reproducción de la siguiente manera: El 70% es para los titulares de los derechos, el 30% restante es para Spotify; se entiende que Spotify del porcentaje que obtiene cubre costos operativos, impuestos, tarifas de procesamiento de tarjetas de crédito, gastos de venta y el funcionamiento de la plataforma, con lo que su ganancia neta es mucho menor al 30%. En el caso del 70% de los ingresos a los titulares, eso no va a parar al artista inmediatamente, sino a los titulares de derechos (que son quienes firman los contratos de licencia con Spotify). Estos se dividen en dos categorías: Regalías de grabación (aproximadamente 50-55% del total), que en este caso es para los sellos discográficos. Luego están las regalías publicación (aproximadamente 15% del total), este es el dinero generado por el uso de la composición (la letra y la melodía), que se paga a los editores musicales y a las sociedades de gestión colectiva (como ASCAP, BMI, SACM, etc.). Al final lo que le quede al artista dependerá del tipo de contrato, que en algunos casos el artista puede recibir el 15% de los 0.003-0.003 dólares por stream, mientras que un independiente vía distribuidor retiene casi todo menos una comisión fija. Lo claro es que los ingresos quedan mayoritariamente en manos de los sellos.

Pero en descargo de Spotify, retomo lo que referido por Liz Pelly (Mood Machine): el streaming «fue moldeado por las grandes discográficas». Si bien las compañías de streaming reciben muchas críticas por estos terribles mecanismos de distribución de regalías, fueron las grandes discográficas quienes establecieron ese sistema; debido a que controlan un enorme catálogo de músicos, cualquiera que quiera lanzar un servicio de streaming debe hacerlo a través de ellas y con sus condiciones y/o reglas.

A pesar de esto, las demás plataformas de streaming ofrecen lo mismo porque son los sellos quienes dictan las reglas, salvo en los casos de plataformas alternativas y que puede ser motivo de otros análisis. Solo para tener una idea del poder que tienen los tres grandes sellos o major, señalemos que en conjunto controlan el 69.5% del mercado global de música grabada que se distribuye de acuerdo con Statista de la siguiente manera: Universal Musica, 31.7%; Sony Music, 22.5% y Warner Music, 15.3%. El restante 30.5% del mercado global está en manos de distribuidoras independientes como ADA (propiedad de Warner), The Orchard (propiedad de Sony), Virgin Music (propiedad de UMG), Merlin: Representa a cientos de sellos independientes a nivel global. En fin, que tampoco las alternativas «independientes» parecen estar realmente fuera del mainstream.

Pero el problema con la industria musical es que no solo está integrada horizontalmente, con los referidos tres grandes sellos discográficos, que monopolizan el mercado musical, sino que también está integrada verticalmente. Los tres grandes sellos discográficos —UMG, Sony y Warner— también son propietarios de las tres grandes editoriales musicales, que son: Universal Music Publishing Group —que cuenta con un catálogo de aproximadamente tres millones de pistas—, Sony Music Publishing —que gestiona alrededor de cinco millones de pistas y derechos de autor, lo que la convierte en una de las editoriales más grandes del mundo— y Warner Chappell Music —que cuenta con un catálogo de más de un millón de canciones—. Este trio juega un papel fundamental en la gestión de derechos de autor y la publicación de música para los artistas y sellos discográficos asociados con cada uno de los tres grandes sellos discográficos. Y esto es una fuente de conflictos de intereses.

Ahora en cuanto a la distribución del streaming, por plataforma según Billboard, el panorama está de la siguiente manera e incluyendo usuarios gratuitos y de paga: Spotify, 32.9%; Tencent Music, 14.4%; Apple Music, 12.6%; Amazon Music, 11.1%; YouTube Music: 9.7%. Es claro que Spotify lidera de forma clara el mercado, pero está lejos de «controlarlo» ya que casi el 70% de los suscriptores globales están en otras plataformas. Lo cierto es que si bien Spotify fue clave para sacar a la industria musical del atolladero después del derrumbe de los CDs y de la aparición del intercambio de archivos musicales vía Napster, eso no significa que las major hubieran aprendido la lección e impulsaran un ecosistema de consumo musical, más saludable para los melómanos o fans y para los mismos músicos.

En todo caso, para la comunidad creadora de música lo que se requiere es tener vías alternativas. Una de ellas podría ser, como dice Doctorow, adoptar un modelo centrado en el usuario. En lugar de ir a un solo fondo común, las regalías de grabación de cada suscripción en una plataforma (alrededor del 52% del total) se deberían distribuir entre los artistas que el usuario realmente escuchó. Si un suscriptor, por ejemplo, solo escuchó a determinado músico durante un mes, el importe total (5,19 dólares de una suscripción de 9,99 dólares) iría a su cuenta. De esa manera, se trataría que quienes escuchan menos recompensarían a sus artistas preferidos con regalías más altas. Quienes usan la música como música de fondo en sus actividades aportarían relativamente menos a cada artista.

El problema es que establecer límites mínimos para el costo del trabajo creativo, pueden reducir la cantidad de valor que se llevan quienes no tienen nada que ver con su creación. Al pensar en cómo implementarlos, se puede tomar como referencia a la Unión Europea que exige a sus países miembros a promulgar leyes que otorguen a los creadores el derecho a una remuneración apropiada y proporcionada cuando licencian o transfieren sus derechos exclusivos. Bajo dicha normativa, los creadores tienen derechos exclusivos sobre sus obras, lo que les permite controlar cómo se utilizan y recibir una remuneración por ello. La norma establece que los creadores deben recibir una remuneración apropiada y proporcionada por la explotación de sus obras; asimismo, exige a todos los Estados miembros de la Unión a garantizar que los creadores puedan negociar contratos justos con los explotadores de sus obras. También contempla que se de la transparencia en los contratos de explotación y restablecer el equilibrio entre el poder de negociación de los creadores y los explotadores.

En tal escenario, los creadores siguen transfiriendo sus derechos de autor, tal como se hacen en este momento; pero los sellos discográficos y editores deciden cómo explotarlos, nuevamente, igual que sucede en este momento. La parte sustancial y diferente está en que los creadores mantienen un derecho inalienable a un pago «apropiado y proporcionado» por el uso de su trabajo. Lo más importante es que esos derechos se pueden hacer cumplir directamente a plataformas como Spotify, Amazon, Netflix y YouTube. La nueva ley de la UE se aplica incluso a los contratos que ya se han decidido, lo que significa que los creadores no tendrán que esperar generaciones para aprovechar las protecciones mejoradas.

En fin, son maneras y caminos que se toman para paliar el huracán transformativo que generan las nueva tecnologías en el consumo y la creación artística. Pero en esto no hay magia ni puede ser la panacea para que los músicos puedan vivir de su arte, ya que las mismas tecnologías emergentes que dieron paso a las industrias creativas, que facilitaron que muchos devinieran en creadores, también han terminado por democratizar la creación musical y dar paso a una precarización del sector artístico.  

Publicado en La Jornada Morelos

Las trampas de Audible

miércoles, 12 de noviembre de 2025

Desde principios del siglo XXI Amazon se percató de que los audios de libros podrían ser una veta de negocio, pero que no se podía usar el podcast para eso, por lo cual giró la cabeza hacia el pasado y se encontró que desde 1990 había empezado a generalizarse el intercambio de archivos de audio vía internet, posible en buena medida a la popularización del formato MP3 y de diversas plataformas de intercambio de tales archivos. De hecho, las grabaciones de libros ya eran algo conocido, desde 1932 se dieron las primera grabaciones de audiolibros que en ese entonces estaban destinadas a personas ciegas o con debilidad visual, que se respaldaban o grababan en discos de vinil. Pero tales grabaciones ampliaron su audiencia: gracias a que la primera masificación de internet trajo consigo la creación y popularización del formato MP3 se hizo factible el intercambio de archivos de audio, entre ellos los audiolibros.

En 1995 Don Katz fundó la empresa Audible que fue pensada exclusivamente para producir audiolibros, al grado que en 1997 ya había lanzado el primer reproductor digital portátil, el Audible Player, para comercializar audiolibros de manera masiva y, de paso, aceleró el intercambio de audiolibros. Pero en 13 años el negocio de Audible no mostró fuerza, por lo cual en 2008 Amazon aprovechó y la compró por casi 300 millones de dólares (shre.ink/oMNN). Con esa adquisición Amazon demostró que todo lo que tenga que ver con los libros es un terreno que tiene que dominar. Amazon no es solo un poderoso comprador de libros, también es un competidor directo de las editoriales; gracias a sus propios sellos editoriales, el mercado de autopublicación y sus producciones de Audible ha copado el negocio de los libros. Los datos que recopila de la competencia le otorgan una enorme ventaja sobre cualquier competidor.

La manera que las editoriales han tratado de enfrentarse a Amazon es convirtiéndose en gigantes de su sector, para lo cual se fusionan. Increíblemente, Penguin y Random House (las dos editoriales comerciales más grandes del mundo) se fusionaron en 2013 creando un gigante de escala escandalosa, y que ahora ha pasado a manos en su totalidad al conglomerado privado alemán Bertelsmann. Incluso este monstruo editorial estuvo a punto de hacerse con más músculo al querer adquirir Simon & Schuster, pero la operación fue frenada por las autoridades regulatorias.

No hay datos precisos sobre que tanto del mercado de audiolibros a escala mundial tiene Audible, en parte porque Amazon no brilla por la transparencia. Además, no pasemos por alto que Audible lo mismo ofrece audiolibros digitales, programas de radio y televisión, que podcasts y versiones en audio de algunas revistas y periódicos. Pero para darse una idea del peso de Audible en el mercado estadounidense, se dice que lo domina con aproximadamente 63% de ventas de audiolibros (shre.ink/oMVZ). No existe una cifra pública confiable y actualizada que ofrezca datos de los ingresos de Audible.

Lo que sí sabemos es que antes de 2014, Audible contaba con las mejores condiciones del sector para los autores: estas condiciones que existieron desde sus inicios hasta 2014 tenían como objetivo atraer a los creadores. La publicación de audiolibros digitales se puso en marcha muy rápidamente, con Amazon controlando el mercado, lo que les dio el poder de introducir condiciones y prácticas desfavorables posteriormente. Su catálogo consta de más de 800.000 títulos, de los cuales unos 3.000 son producciones creadas específicamente para formato de audio y no basadas en libros impresos o digitales previos (shre.ink/obte).

Audible inició de forma seductora ofreciendo a los autores el 40% de regalías siempre y cuando publicaran exclusivamente sus audiolibros en dicha plataforma. Pero el dulce se fue amargando con el correr del tiempo. Después de 2014 Audible modificó sus cláusulas, introdujo unas restrictivas; teóricamente mantiene a los proveedores atados mediante su estructura de regalías acompañadas de un requisito draconiano de que los libros permanezcan en la plataforma durante al menos siete años y el compromiso de que quien publica en dicha plataforma se abstendrá de litigios y demandas colectivas. Sin embargo, la falta de transparencia y en la manera nada pulcra con la cual Amazon opera sus plataformas derivó que a fines de 2020, la Alliance Independent Authors (AIA) denunciara un error en los informes de regalías que mostraba deducciones masivas por devoluciones de títulos.

En enero de 2021 la Authors Guild hizo una declaración en donde señala que desde octubre de 2020 se dio una falta de transparencia en los informes de la plataforma ACX (Intercambio de Creación de Audiolibros)/Audible, que se tradujo que entre 2024-2025 se presentara una demanda de autores independientes que acusaron a Amazon/Audible de prácticas monopolísticas en el mercado de audiolibros; además, la AIA hizo público que entre septiembre y octubre de 2020 se detectaron devoluciones de manera masiva de audiolibros que se presentaron en un solo día, de manera que se devolvían títulos adquiridos varios meses atrás y, por consiguiente, repercutía en las regalías a los autores.

Todo eso se derivó de que Audible prometió a sus clientes que podían devolver todos los libros que quisieran, incluso si los habían disfrutado, lo que fue resultado que Amazon/Audible sin previo aviso a los autores amplió el periodo de devolución de un audiolibro, que pasó de 90 días a 365 desde el momento de la compra, lo cual dio paso a que títulos vendidos varios meses atrás fueran devueltos y reembolsados, dañando a los autores. Para los escritores afectados eso fue una estafa, pero también afectó a narradores que trabajaron con autores de libros con base en el reparto de regalías. Audible creó esa política de devoluciones para retener a sus clientes y mantener a la competencia fuera del mercado, y con eso obligó a los más débiles de ese sistema, autores y creadores, a subvencionarla. Sin duda que eso fue benéfico para los consumidores y para Audible, pero desastroso para los escritores y narradores independientes. No se podría pedir un mejor ejemplo de cómo la prueba del «bienestar del consumidor» —la idea de que solo se combate a los monopolios cuando los consumidores sufren como resultado de sus acciones— convierte al público artístico en cómplice de programas que destruyen la vida de los trabajadores creativos.

Todavía Amazon paga a los autores el 70% de los ingresos de ventas de los libros autopublicados: mucho más de lo que su filial Audible paga por los audiolibros autopublicados. Pero cobrar y tener informes pormenorizados sobre el comportamiento de ventas no es fácil, para los autores requiere apoyo profesional. Pero esa generosa distribución de regalías de Amazon no está motivada por afanes altruistas. Más bien, está diseñada para debilitar a las editoriales mediante la creación de un mercado alternativo que las excluye por completo. Pero este es solo un ejemplo del atropello de estos gigantes a autores y creadores.

@tulios41

Publicado en La Jornada Morelos

Maniac, la genialidad y la locura

Las obras de Benjamín Labatut —Un verdor terrible (2020), La piedra de la locura (2021) o Maniac (2023)— son una continua exploración de cómo algunas de las mentes más brillantes de la ciencia moderna unen creatividad y demencia. Cerebros que refugian la locura y dan vida a ideas e invenciones perturbadoras. Mentes que en nombre de su genialidad se adentran a explorar lo incomprensible, a ir más allá de la frontera del conocimiento, franqueando los límites de la razón y en muchos casos terminan por pagar un alto precio.

En Maniac, Labatut continúa su camino exploratorio de algunas de las mentes más brillantes y perturbadas de la ciencia moderna, de quienes se asomaron a los límites del conocimiento y, en muchos casos, la humanidad lo pagó caro. Si en Un verdor terrible el autor chileno presentó una serie de postales sobre científicos que desafiaron el orden establecido, en Maniac profundiza en eso y se centra en la figura contradictoria de John von Neumann, el matemático húngaro-estadounidense cuyas contribuciones moldearon el siglo XX.

El título, Maniac, el mejor libro escrito hasta ahora del autor, tiene un carácter polisémico: por un lado, Maniac alude al nombre de una de las primeras computadoras electrónicas (Mathematical Analyzer Numerical Integrator and Computer) y con una arquitectura diseñada por Von Neumann; pero Maniac también es una palabra que evoca la manía, la obsesión, la locura que acompaña al genio en su forma más pura y destructiva. Para Labatut los genios humanos, con su mente privilegiada, tienen licencia para franquear los límites humanos, dar vida al «alto conocimiento» que se vincula al desenfreno mental.

El libro reúne múltiples voces y episodios para dar cuenta de cómo las grandes mentes son capaces de fundir delirio e inteligencia para dar vida a sus creaciones. Una de las partes de la obra está dedicada al físico austriaco Paul Ehrenfest, quizás la historia más tétrica y fascinante. Amigo de Einstein, Ehrenfest fue la viva imagen del científico humanista, para quien sus descubrimientos eran inseparables de las cuestiones morales; Ehrenfest, tuvo una vida atormentada, le tocó vivir en la época dorada de la física cuántica, del ascenso del nazismo; la mente y psicología de Ehrenfest eran inestables, sus crisis existenciales parecían desenvolverse de acuerdo al nuevo paradigma científico; para Ehrenfest que valoraba la claridad conceptual, los nuevos derroteros de la física le significaron un golpe demoledor; lo personal y lo científico era indisociable, al grado que sus elecciones morales no se sustraían de lo personal, ya que su hijo Vassily, con síndrome de Down, lo sumía en una angustia insoportable por el futuro de su hijo y eso lo condujo, en 1933 —con los nazis ya a la puerta del poder—, a matarlo y posteriormente suicidarse.

La mayor parte del libro se centra en John von Neumann, que es central en la manera en que el autor ve a la IA. Se describe la poderosa capacidad cognitiva de un auténtico atleta de la mente; desde temprana edad von Neumann demostró que era un portento de destreza mental, su mente era capaz de realizar cálculos complejos mentalmente y más rápido que cualquier persona que usara lápiz y papel; von Neumann, un genio que sus contribuciones se ramificaron a campos tan diversos como matemáticas puras, física cuántica, teoría de juegos, computación, economía, estrategia militar e IA; en Maniac se describe como von Neumann estaba rodeado de colegas que tenían por él una mezcla de admiración y terror, de estar frente a una mente fuera de serie e impredecible.

La última parte, «Lee o los delirios de la inteligencia artificial», aborda una partida de Go entre Lee Sedol, campeón surcoreano de Go, y AlphaGo, una IA creada por DeepMind, en donde convergen una batería de técnicas de IA y que destrozaron a Sedol, evidenciando que la inteligencia de silicio entraba a una nueva dimensión y rivalizaba con la humana. La IA al mismo tiempo fue tan humana ya que mostró «alucinaciones», que en vez de evidenciar errores de programación reflejó que la IA al engullir todo el saber humano, también es capaz de absorber la irracionalidad y locura humanas.

Labatut muestra cómo von Neumann, que jugó un papel clave en el Proyecto Manhattan y en el diseño de la bomba atómica, concibió las computadoras no simplemente como calculadoras rápidas, sino como máquinas universales capaces de simular cualquier proceso lógico. Pero si las computadoras eran máquinas universales capaces de simular cualquier proceso lógico, entonces era un artificio poderoso. Además, si los procesos cognitivos y la conciencia podían reducirse a algoritmos, si el cerebro era una máquina de procesamiento de información, como Neumann refería, entonces una máquina universal podía fácilmente reproducir la mente, por lo que se puede decir que sus experimentos con autómatas y sus teorías de autorreplicación fueron un adelanto de lo que hoy tenemos con la IA y toda esa cháchara sobre la singularidad.

En la parte última de Maniac, Labatut da un salto sorprendente: lo que inicialmente parece forzado, en realidad se trata de quitarle a la IA su aura de lógica perfecta y absoluta. Para él, la IA una vez que alcanza cierto nivel de complejidad, empieza a «independizarse», toma caminos que la llevan a producir errores creativos, alucinaciones o textos alejados de la verdad o del sentido común. Pero mal haríamos en pensar que las alucinaciones de las IAs son un fallo de hardware o software, en realidad son la expresión de que la conciencia de la máquina se hace realidad. El paso que va de Maniac a la IA es el camino que va de la etapa en donde el control y la precisión son supremos, a la pérdida de ese control, en donde la máquina ha superado a su creador y ahora produce resultados que no se pueden predecir ni explicar por completo. El paso dibujado por von Neumann de la mente biológica a la mente de silicio, es la historia de cómo el humano pasó de controlar sus creaciones a ser devorado por sus inventos.

Maniac dibuja como el arribo a la IA, es también la llegada a la era en donde el big data se hermana con la ficción, con el spam, con las alucinaciones y las pesadillas. La IA es un espejo deformado de la humanidad, que refleja todas nuestras contradicciones, sesgos y nuestra propia inclinación por deificar el delirio. En resumen, la parte última de Maniac no es solo la exploración directa de lo que es la IA, sino una meditación poética y aterradora sobre la conciencia artificial y lo que significa para la humanidad haber creado una mente que es capaz de reproducir sus propias locuras. Al final, la obra nos enseña las contradicciones humanas, como en nombre de un bien superior se coaligan mentes brillantes y el Estado para crear una bomba con el fin de que sea la solución humanista que la ciencia puede regalar a la humanidad para frenar el apetito expansionista de un orate totalitario que desea crear una raza humana superior, pero en su camino desarrolla una mente de silicio que replica los extravíos mentales de los humanos.

@tulios41

Publicado en La Jornada Morelos

La nueva era de TikTok

Desde su lanzamiento en 2016, TikTok creció como espuma, su propuesta de videos cortos de inmediato causó furor entre los jóvenes, al grado que a pesar de que hoy tiene una buena porción de usuarios arriba de 44 años, son las personas que oscilan entre 18-34 años quienes ocupan casi el 67% de la demografía de esa plataforma. Actualmente TikTok tiene más de 1.590 millones de usuarios. Los cinco principales países en millones de usuarios son: Estados Unidos (170), Indonesia (108) Brasil (91.7), México (85.4) y Pakistán (66.9).

En 2018 estuvo disponible TikTok en Estados Unidos, pero dos años después ya tenía sus primeras escaramuzas con el gobierno de Donald Trump, las cuales continuaron con la administración Biden y han dado paso, en fechas recientes, —después de amagues de cierre y del fin de operaciones de esa plataforma en Estados Unidos—, a su venta forzada; la plataforma, pasará a ser gestionada por un conjunto de empresas mayoritariamente estadounidenses.

La firma de la orden ejecutiva presidencial del 25 de septiembre marca un punto de inflexión en la historia de las plataformas digitales globales. Con esa decisión, el presidente Donald Trump autorizó la venta de las operaciones estadounidenses de TikTok a un consorcio de inversores nacionales, delineando así un nuevo capítulo en las tensiones entre Estados Unidos y China. Lo que resulta particularmente revelador en esta operación es la discrepancia entre las valoraciones financieras. Mientras que anteriormente TikTok en el mercado estadounidense se tasaba en aproximadamente 40 mil millones de dólares, la transacción actual estima su valor en 14 mil millones (shre.ink/ST3Q). Esta reducción sustancial invita a reflexionar sobre los factores políticos y regulatorios que pueden reconfigurar drásticamente el valor percibido de un activo digital. Para contextualizar esas cifras, conviene considerar que ByteDance, la corporación matriz, mantiene una valoración superior a los 330 mil millones de dólares, en tanto que TikTok por sí solo alcanza los 100 mil millones a nivel global.

El cronograma establecido para consumar esta transacción se extiende hasta la última semana de enero de 2026. Una vez finiquitada la operación, emergerá una entidad corporativa independiente que asumirá el control integral de las operaciones de TikTok en territorio estadounidense: desde la administración de datos de usuarios hasta la gestión del contenido y el desarrollo del software local. La estructura de gobernanza prevista contempla un consejo directivo de siete miembros, con una composición que garantiza la hegemonía estadounidense mediante seis representantes de ese país frente a un único delegado de ByteDance. Esta configuración no es casual, constituye el mecanismo mediante el cual se asegura que el rumbo estratégico de TikTok en Estados Unidos responda a intereses y prioridades locales, para consolidar una soberanía digital que trasciende la mera propiedad accionaria.

Esta operación constituye un síntoma elocuente de la actual deriva proteccionista de la política comercial estadounidense. Lo que presenciamos no es un caso aislado, sino la consolidación de un patrón sistemático: un cerco regulatorio que limita progresivamente el avance de las corporaciones tecnológicas chinas en el mercado estadounidense. El caso de TikTok funciona como señal de alerta para otras compañías de ese titán asiático, anunciando que sus aspiraciones de expansión enfrentarán un escrutinio regulatorio cada vez más exhaustivo y barreras de entrada progresivamente más infranqueables. Empresas emblemáticas como Huawei, Tencent y Alibaba han experimentado restricciones análogas. Lo que distingue al momento actual, es la sistematización de estas medidas en un marco más amplio de confrontación estratégica. Esto desemboca en una espiral de represalias recíprocas: las firmas estadounidenses que operan en China enfrentan obstáculos equivalentes. Esto evidencia que vivimos una fragmentación del ecosistema tecnológico global.

Algunos analistas han interpretado este movimiento como un acuerdo tácito entre Trump y Xi Jinping para dividirse la demografía de TikTok en esferas geopolíticas diferenciadas. Sin embargo, esta lectura simplifica una realidad más cruda: lo que Estados Unidos no logra contener mediante la innovación, lo neutraliza a través de medidas discrecionales que clausuran mercados y cancelan operaciones de firmas chinas bajo el amparo de la seguridad nacional, mientras simultáneamente blinda a sus propias corporaciones. Esta estrategia se extiende más allá de su territorio; Estados Unidos instrumentaliza su posición dominante en tratados comerciales —como el T-MEC con México y Canadá— para erigir barreras indirectas contra productos chinos.

Recordemos el paradigmático affaire de Huawei. En 2019, Trump prohibió la comercialización de dispositivos de esa compañía argumentando riesgos de espionaje de Huawei a favor de China. Pero el trasfondo era innegable: Huawei lideraba la tecnología 5G, ocupaba el segundo lugar mundial en fabricación de smartphones y competía directamente en el segmento premium de Apple, al que incluso había desplazado del mercado chino. La prohibición hizo que Google vetara el uso de Android en equipos Huawei, erosionando su atractivo en mercados internacionales. Esa intervención regulatoria, presentada como defensa de la seguridad nacional, en la práctica fue un mecanismo que benefició a Apple en los mercados donde Huawei tenía su mayor expansión fuera de China.

No olvidemos que las plataformas chinas encabezan actualmente la innovación digital al integrar entretenimiento, comercio electrónico y servicios múltiples en las llamadas superapps. WeChat inauguró este modelo en 2011, fusionando mensajería, pagos digitales y trámites diversos, mientras TikTok avanza por ese camino donde las empresas estadounidenses han fracasado repetidamente.

El caso TikTok —junto al de Huawei— evidencia que la competencia trasciende lo empresarial para convertirse en un choque entre modelos de desarrollo tecnológico. Estados Unidos busca preservar el dominio de sus corporaciones (Apple, Google, Microsoft) e impedir que China alcance autonomía en semiconductores, 5G e inteligencia artificial. Esa geopolítica condensa las tensiones entre ambas potencias en materia tecnológica y de seguridad nacional, aunque resulta paradójico que los Murdoch —propietarios de Fox News, célebres por el espionaje ilegal— participen en la futura gestión del TikTok estadounidense.

Este diferendo expresa, en última instancia, la balcanización que vive el ciberespacio y donde los Estados moldean cada vez más el acceso a contenidos e información. Pero el futuro de TikTok permanece incierto: China insiste en retener el control del algoritmo de recomendación, por lo que no es improbable la negociación de una licencia en lugar de una transferencia completa a la entidad estadounidense, ya que eso forma parte de la modulación en el acceso a los contenidos. 

@tulios41

Publicado en La Jornada Morelos

Leyes y censura digital

sábado, 27 de septiembre de 2025


La inquietud sobre la privacidad en el entorno digital no es un fenómeno reciente, sino una premonición que germinó en los inicios de la red. Ya en la época de Arpanet, la rudimentaria precursora de internet concebida en la década de 1960, algunas voces académicas anticipaban los riesgos inherentes a la comunicación digital. En 1975, Tad Szulc publicó un artículo en The Washington Monthly advirtiendo que la red tenía el potencial de ser usada por agencias de inteligencia, como la CIA o el FBI, para fines de vigilancia local. A pesar de que la preocupación no era generalizada entre sus pocos usuarios, los expertos en temas de privacidad ya veían en el horizonte el sombrío espectro de la vigilancia gubernamental con las redes de cómputo (shre.ink/ShjR).

Hoy, la red se ha convertido en la plataforma que une a la sociedad global. Internet y la cultura digital alcanzan una masificación sin precedentes. Según la Unión Internacional de Telecomunicaciones (UIT), 5.5 mil millones de personas en el mundo son usuarios de internet y existen 5.76 mil millones de usuarios de teléfonos móviles. México, de acuerdo con Global Digital Insights, refleja esa tendencia con el 96.5% de su población usuaria de telefonía móvil y 110 millones de usuarios de internet. Vivimos, como si se tratara de una parodia del pensamiento de Gianni Vattimo, en la era de la «sociedad de la transparencia», una paradoja en la que, a pesar de esa transparencia y conectividad, hemos perdido la certeza sobre el destino de nuestros datos personales. Mientras algunos residen en nuestros dispositivos, una vasta y creciente porción se disuelve en el éter digital, queda almacenado en servidores cuya ubicación y uso desconocemos. La digitalización masiva ha transformado la vigilancia, pasó de ser una preocupación de expertos a una condición cotidiana. La huella digital de cada individuo —desde sus transacciones bancarias hasta sus conversaciones privadas y sus patrones de navegación— son activos de gran valor, no solo para las empresas, sino también para los gobiernos.

Con la masificación y expansión de los servicios en línea, la privacidad dejó de ser un tema exclusivo de especialistas para convertirse en una preocupación central para organizaciones civiles y usuarios de diversas plataformas. Es bien sabido que las empresas ofrecen almacenamiento y servicios gratuitos, ya que los datos generados por los usuarios alimentan sus bolsillos. Compañías como Google y Meta, por ejemplo, proporcionan servicios «gratuitos» a cambio de datos que usan para vender publicidad dirigida, desarrollar nuevos emprendimientos... Pero desde hace rato las mismas entidades estatales usan la red para acopiar datos de los ciudadanos.

En México, se observa una contradicción notable en el discurso sobre la privacidad y los derechos humanos. Aquellos que en el pasado defendían con vehemencia el control de las personas de su información personal, abogando por el derecho a la privacidad como pilar fundamental de la libertad de expresión  y de la misma dignidad humana, han modificado su postura al integrarse al oficialismo. Hoy, argumentan que la privacidad carece de relevancia en relación con los derechos humanos; como representan al «pueblo bueno» en el poder, no debe temerse que el Estado acopie datos personales. Un ejemplo reciente de ese apetito lo ilustra que desde el mes que corre, arrancó el programa piloto para el Registro de Usuarios de Telefonía Móvil, la idea es que para mediados del año próximo toda línea que no esté asociada a un usuario final, a sus CURPs, será suspendida. Esta disposición, enmarcada como una iniciativa de seguridad pública y telecomunicaciones, busca combatir la delincuencia mediante un mayor control sobre la identidad de los usuarios. Incluso se dice que es una medida nada comparable a otras similares que fueron impulsadas en el pasado, pero han sido superadas con creces.

La privacidad, lejos de ser un concepto abstracto, está intrínsecamente ligada a la dignidad humana y al ejercicio pleno de los derechos fundamentales. En este sentido, el debate actual en México no solo refleja un cambio en las posturas de ciertos actores políticos, sino que también invita a reflexionar sobre las implicaciones a largo plazo de sacrificar la privacidad en aras de la seguridad. El gobierno en turno conforma un ecosistema digital caracterizado por una centralización de datos personales y biométricos (huellas, rostro). La implementación de herramientas como Llave MX (que exige la CURP y número de teléfono móvil) para tramitar una acta de nacimiento en línea, o la obligatoriedad para 2026 de la CURP con fotografía y datos biométricos, pasando por las recientes medidas fiscales —aunque aún no aprobadas y posiblemente se retirarán— que exigen a las plataformas de streaming y comercio electrónico un acceso en tiempo real a los registros de sus usuarios en México, no son incidentes aislados.

Lo anterior es una manifestación de una tendencia gubernamental que busca expandir su control, difuminando la línea entre la fiscalización y la vigilancia. Si bien se presentan como soluciones para combatir la evasión fiscal o el crimen, la historia sugiere que tales medidas pueden ser el preámbulo de un control más estricto sobre los ciudadanos, con graves implicaciones para la libertad política y de expresión.

Cuando el Estado centraliza y accede a la información personal de los ciudadanos, crea un perfil detallado de su vida, sus hábitos y sus interacciones. El argumento de la seguridad nacional o la eficiencia fiscal se usan a menudo como mera justificación. Sin embargo, este poder, una vez en manos del gobierno, puede ser tentador de usar para fines más allá de los declarados. La historia de proyectos como el Renaut y el Panaut, los amagues del Código Fiscal en México sobre el rastreo y bloqueo de plataformas digitales o el suprimido artículo 109 de la Ley de Telecomunicaciones, son ejemplos de ese patrón. Más allá de que tales medidas se proponen para resolver el problema delictivo, esos mecanismos generan desconfianza, pueden ser disuasorios de la libertad de expresión y, de paso, demandar robustos mecanismos de protección de esos datos.

Diversos organismos civiles de nuestro país han advertido que las regulaciones referidas y las de internet en curso —además de la reforma judicial y la electoral que se avecina— conducen a una erosión fulminante de la democracia mexicana. La paradoja es que todavía no hemos tocado fondo, ya que se prepara en el Senado la Ley Nacional en Ciberseguridad y legislación en materia de libertad de expresión, lo que puede terminar siendo la cereza del pastel para coronar la implementación de la censura en el ciberespacio.

@tulios41

 Publicado en La Jornada Morelos

La economía colaborativa


Hoy el mundo laboral no puede ser entendido sin la denominada economía colaborativa, que ya alcanza a una porción significativa de personas a escala mundial que directa o indirectamente usan los múltiples servicios o plataformas dedicadas a la susodicha economía. Debe recordarse que los términos economía colaborativa y economía gig están entrelazados, aunque el primero surgió con el despertar del siglo XXI, el segundo nació y se popularizó en 2008 con la irrupción de plataformas digitales, que conectan a trabajadores independientes con tareas específicas, transformando el mercado laboral y ofreciendo una alternativa al trabajo tradicional.

La economía colaborativa es un modelo que propone el uso compartido, el intercambio, alquiler o venta de recursos privados subutilizados, en donde se puede dar o no una contraprestación económica. Al inicio, la economía compartida se difundió como una manera de tener un trabajo/ingreso complementario y con trabajos esporádicos. Previo a esa clasificación surgieron sitios que embonaban con la filosofía de compartir y todo lo que después retomó la economía colaborativa. El espectro es amplio, aquí nos centraremos en los que tienen que ver con los alquileres temporales de espacios físicos, uno de los primeros fue Couchsurfing.com, imitado después por Airbnb y lanzados para ganar un dinero y complementar los ingresos tradicionales, al tiempo que proporcionan a terceros acceso a espacios y hospedaje a precios reducidos.

Un caso paradigmático fue Craiglist, lanzado en los años 90 con el objetivo de proporcionar una manera útil y sin fines de lucro el intercambio de información y difusión de eventos de forma local, en la Bahía de San Francisco particularmente. Craigslist o la misma Couchsurfing, pretendían reducir los gastos del consumidor y ser una alternativa a la dinámica de consumo capitalista. Los centros de recursos comunitarios y los trueques permitían a los usuarios acceder a productos baratos o gratuitos. Poco después, Craiglist le arrebató a los medios impresos la modalidad de sus ingresos por la promoción de anuncios (aviso oportuno), pero al mismo tiempo empezó a ser fuente de inspiración en el intercambio y renta de espacios, conocido como la era del bed and breakfast.

Eso inspiró el surgimiento de sitios como Airbnb, que nació como modelo de bed and breakfast, pero con la peculiaridad de que por un lado era un complemento a los ingresos de las personas, pero al mismo tiempo el compartir un cuarto y desayuno con otros era una manera de que las personas tuvieran un contacto directo, amigable, alternativo tanto en costo como en interacción que un hotel o cualquier sitio de hospedaje convencional. Así que en 2007 Brian Chesky y Joe Gebbia —fundadores de Airbnb— se les ocurrió crear un sitio, «Air Bed and Breakfast», para alquilar colchones inflables en su apartamento a asistentes de una conferencia que no podían tener espacio por la saturación que se vivía en los hoteles. Su ocurrencia fue un éxito, vieron que se podía tener ingresos alquilando recámaras no ocupadas en sus departamentos.

Después el nombre se recortó, a Airbnb, acrónimo de «Air Bed and Breakfast», que pronto se convirtió en una referencia que ha terminado por trastocar la industria de alquileres a corto plazo y el mismo sector hotelero.  Airbnb fue promotor de una versión sui generis, pero moderna y accesible del concepto clásico de hospedaje con desayuno incluido. El éxito de Airbnb al poco tiempo fue evidente, ya que se extendió rápidamente por Estados Unidos y el planeta, fue una alternativa para mochileros y gente con pocos recursos, que buscaban modelos novedoso de hospedaje, además era ideal para quienes rentaban ya que no pagaban impuestos y el sitio se abrió camino para aprovechar las lagunas jurídicas y propalarse, pero al mismo tiempo empezaron a surgir quienes lo vieron como una buena manera de obtener ingresos y se trastocó la idea original de crear un espacio compartido donde tanto anfitriones como huéspedes pudieran interactuar, conocerse y compartir experiencias culturales.

En sus orígenes, hospedar en Airbnb no era compartir sólo el espacio habitado. El hospedaje ofrecía que al tener personas compartiendo espacio en su hogar, Airbnb proporcionaba a los anfitriones la oportunidad de conocer e interactuar con personas de otras ciudades o países. Así que el concepto iba más allá del simple alojamiento; el ethos Airbnb era que los anfitriones compartían su manera de ser, su forma de vivir, su autenticidad con los huéspedes, los introducían en la cultura local, les sugerían actividades únicas y mejorar las experiencias de estadía de sus huéspedes. Sin embargo, estudios como los de Alexandrea J. Ravenelle (Precariedad y pérdida de derechos) indican que la disponibilidad y accesibilidad de vivienda se vieron comprometidas cuando las unidades habitacionales se convirtieron en alojamientos de corto plazo, trastocando la economía local.

La idea original era darle a las personas la oportunidad de que tuvieran un ingreso, pero lo que aconteció fue que estructuras inmobiliarias empezaron a concentrar departamentos en edificios, casas para arrendar bajo la modalidad de estadías cortas, trastocando por completo las ya de por si afectadas dinámicas de alquiler en diversas zonas, generando o siendo uno más de los factores que han dado paso a la denominada gentrificación. Hoy día los anfitriones de Airbnb no suelen «compartir» su casa o «albergar huéspedes», sino alquilar su vivienda a precios que han dejado de ser una alternativa respecto a los hospedajes tradicionales, ya son tan onerosos como cualquier hotel. Es una transformación que erosionó la filosofía original de intercambio cultural y hospedaje accesible, convirtiéndose en un mecanismo que contribuye a la desigualdad habitacional y la gentrificación urbana.

Hoy ya no se trata de compartir espacios y cultura, sino de establecer operaciones comerciales a gran escala con compañías enteras que actúan como intermediarios, manejando múltiples propiedades y con operaciones diarias para asegurar una experiencia rentable para los propietarios. Eso no quiere decir que no exista una porción de usuarios propietarios de sus propios espacios, que gestionen ellos mismo la renta de habitación vía Airbnb, pero el grueso está lejos del modelo de anfitrión individual que compartía su hogar.

Lo cierto es que la economía colaborativa, conformada por un nebuloso conjunto de plataformas y aplicaciones en línea, que prometieron trascender el capitalismo en favor de la comunidad no terminó en eso. No se cumplió la idea de que serviría para fortalecer la comunidad, revertir la desigualdad económica, detener la destrucción ecológica, contrarrestar el apetito materialista, empoderar a los pobres y llevar el espíritu emprendedor a las masas. La economía colaborativa no fue la panacea para los males de la sociedad moderna, al final ha terminado propagando el precariado y trastocando las dinámicas espaciales en las urbes.

*@tulios41

Publicado en La Jornada Morelos

El futuro de Apple

domingo, 31 de agosto de 2025

Desde su fundación en un supuesto garaje en 1976, pasando por su crecimiento en la década de 1980 hasta su casi bancarrota en 1996 y convertirse en el mayor titán de las empresas tecnológicas, Apple se ha distinguido por fabricar productos refinados, que destacan por su diseño y por vincular sólidamente hardware y sistema operativo. Desde sus inicios la empresa de las manzanas empezó a fabricar sus propios equipos, con su crecimiento empezó a operar importantes fábricas en California, Colorado, Irlanda y Singapur; pero poco antes de que Steve Jobs retornara a la compañía, en 1997, Apple optó por deslocalizar su producción en múltiples fabricantes y países. Su producción se trasladó a Corea del Sur y Taiwán, pasó por México, Gales, República Checa y China, en donde se ha establecido desde hace varios años y en donde fabrica el grueso de sus productos.

El éxito de Apple es impensable sin China, en donde ha logrado producir los mejores gadgets y equipos demandados en el mundo pero sin fabricar ninguna parte de los mismos. Por eso, resultó extraño que en pasados días Apple indicara que incrementó su plan de inversión en Estados Unidos a 600 mil millones de dólares que se aplicarán a lo largo de los próximos años. Aunque ya en febrero de 2025 había referido que invertiría 500 mil millones de dólares, ahora solo agregó 100 mil millones más. (shre.ink/t8VT) Esa inversión tiene el objetivo de calmar las presiones y amenazas de Trump de que si Apple no traslada su producción de iPhones a Estados Unidos, le aplicará aranceles del 25% a sus productos.

Sin embargo, ¿qué factible es que Apple abandone la fabricación de sus productos de China? Siguiendo el análisis de Patrick McGee en Apple in China, es muy complicado que eso sea posible en el corto lapso. Es cierto que a Apple también le urge no depender tanto de China. En lo que sigue nos apoyaremos en lo referido por McGee.

De acuerdo con él, Apple empezó a trasladar en la última década del siglo XX fuera de Estados Unidos, y de manera desigual, la fabricación de sus productos, pero fue a partir de la siguiente década, concretamente en 2007 con el lanzamiento del iPhone, que la manufactura china se volvió crítica e indisociable de Apple. A partir de ese momento, la cadena de suministro de Apple dependió de China, cuando prácticamente la totalidad de proveedores de los productos de Apple trasladaron su manufactura y producción a instalaciones chinas, logrando con ello un ecosistema para solucionar cualquier problema en horas o pocos días, cuestión que en Estados Unidos tardaría mucho más tiempo en solventarse.

Ha sido un matrimonio de conveniencias. Por un lado, China convenció a Apple de ser capaz de fabricar sus productos a una alta calidad, por su parte Apple le hizo ver a Pekín que no era un simple comerciante, sino una especie de mecenas y mentor que financia, capacita, supervisa y abastece a los fabricantes chinos, que prepara mano de obra de alta calidad. En este juego, el autor refiere que no se trata solo de que Apple explote a los trabajadores chinos, sino de que Pekín permite que Apple lo haga, para que China, a su vez, explote a Apple. Se estima que cerca de 30 millones de chinos han sido capacitados por ingenieros y especialistas de Apple.

Pero más allá de los ahorros que China representa, también es importante ese país para Apple como mercado ya que es el tercero en consumo de sus productos: está después de Estados Unidos y Europa. Pero vender y operar en China no ha sido gratuito, Apple ha tenido que ceñirse a las exigencias del gobierno chino y aplicar un fuerte control del contenido del iPhone, que los datos de los clientes se alojen en centros de datos chinos y ha tenido que asociarse con empresas locales y ofrecer su know how a los chinos.

Más allá de esas actitudes convenencieras que caracterizan a los gigantes de internet y al capital en general, Apple se ha visto forzada a buscar alternativas a China. Por un lado, las presiones de Trump y sus represalias arancelarias, amén de que no quiere que Cupertino mantenga su producción en China, pero también porque desde el arribo de Xi Jinping al poder en China en 2013, este ha presionado a Apple para censurar información como obligarla a que invierta fuerte en el país y capacite mano de obra china, haciendo de Apple la mejor fuente de capacitación de alta tecnología en China. Por eso ha empezado a migrar parte de su producción a India y Vietnam.

Pero, de acuerdo con McGee, es difícil imaginar que en corto tiempo Apple prescinda de China. La empresa de Cupertino trabaja con más de 1,500 proveedores en múltiples países. Pero todos los productos pasan por China: el 90% de su producción se concentra en ese país, y sus famosas plantas de ensamblaje en Vietnam e India dependen igualmente de la cadena de suministro centrada en China. Ningún otro país se acerca remotamente a ofrecer la combinación adecuada de calidad, escala y flexibilidad necesaria que ofrece China para remitir al mercado la friolera de 500 millones de productos de Apple al año.

Como dice Kevin O'Marah (especialista en cadenas de suministro y comercio), citado por McGee, sobre la cadena de suministro de Apple: «No es realmente una cadena de suministro global. En teoría, lo es; pero en la práctica, es un conjunto de procesos y productos, ingeniería y producción totalmente diseñado, y todo sincronizado en un solo lugar: [China]» Además, agrega: «Van a tener un problema enorme para salir de [China]». Por si fuera poco, la «velocidad china» es insuperable: la capacidad de realizar las tareas a un ritmo incomprensible para los occidentales y que para nada tienen India o Vietnam. En China, por ejemplo, uno de los proveedores favoritos de Apple, Foxconn, puede pasar de cero productos a 100 mil al día con facilidad, algo impensable de hacer en Estados Unidos, Vietnam o la India. Incluso en Estados Unidos no hay mano de obra que esté al mismo nivel que existe actualmente en China.

En 2024 inició Apple operaciones en India donde apenas se encuentra en las primeras etapas de desarrollo para la «introducción de nuevos productos». En Vietnam, sucede lo mismo. Los dos principales argumentos que respaldan el potencial de la India son su enorme fuerza laboral y su mano de obra barata, pero carece de la flexibilidad que tienen los chinos. Como refiere McGee, lo que China ofrece a Apple no es simplemente mano de obra, sino todo un ecosistema de procesos desarrollado durante más de dos décadas y que no es fácil de sustituir. Por ello, se ve complicado que en los próximos cinco años Apple abandone China.

Lo cierto, es que no podemos pasar por alto que China se ha convertido en un «titán tecnológico», asombra que haya avanzado muy rápido en áreas tan complejas como la electrónica de punta o la misma inteligencia artificial, parte de la respuesta es que Apple les transfirió ese conocimiento en buena medida. Año tras año, Apple tomó los diseños, procesos y conocimientos técnicos más vanguardistas de todo el mundo y los reprodujo y escaló en China.

@tulios41

Publicado en La Jornada Morelos

Internet, dominios e ICANN (2)

En sus inicios, la ICANN (Corporación de Internet para la Asignación de Nombres y Números) careció de plena autonomía. La influencia del gobierno estadounidense sobre dicho organismo no la ejercía directamente, sino vía el Departamento de Comercio, que era el contratante de la ICANN.  A pesar de los cuestionamientos a la ICANN, fue una innovación radical que se legitimó con sus decisiones basadas en el consenso, propio del internet inicial. Se diseñó para que fuera multisectorial, lo que significa que ninguna facción o poder tenía el control absoluto del organismo. La operación de la ICANN, sus decisiones, se basaron en el modelo de múltiples partes interesadas —hoy extendido hasta en la sopa—, abierto, transparente y basado en el consenso, básicamente fue una versión moderna o actualizada de las RFC. El ámbito de competencia de la ICANN fue limitado, pero de grandes consecuencias: Se ciñó en los identificadores únicos, los domicilios de internet y específicos, pero de suma importancia para que opere la internet global: nombres de dominio, direcciones IP y protocolos. En esa forma de operar de la ICANN pervivían vestigios de la contracultura antiautoritaria y rebelde de la década de 1960, pues no existía una base legal para regular todo el sistema. La ICANN se estableció como una asociación voluntaria, y así sigue siendo. Nada obliga a sus participantes —gobiernos, asociaciones, empresas…— a permanecer en la ICANN.

Por un lado en una política de la ICANN sobre una resolución de disputas, las entidades privadas involucradas están obligadas a cumplirla, o pueden perder su acreditación. Pero sus políticas no son vinculantes para los gobiernos: un país puede imponer sus propias leyes, que incluso pueden contradecir a las políticas de la ICANN. Esta forma de operar parecería ser un vestigio contracultural, pero no es así ya que si bien el mecanismo de actuación de la ICANN surgió de un contexto idealista pronto fue cooptado por quienes creían que el mercado era la mejor solución. En los inicios de la ICANN, los idealistas lograron darle una apariencia de apertura y comunidad, pero con fuertes limitaciones. Al final, la visión inicial de Al Gore de que la ICANN apuntalara o impulsara una red de investigación con garantías de acceso justo y supervisión gubernamental, fueron sacrificadas en favor de la comercialización, el crecimiento y la participación amplia de naciones. Al poco tiempo de afianzarse la ICANN, las ideas de Gore fueron relegadas a segundo plano ante la fiebre del oro. Janet Abbate lo resumió en 2019, y de manera lapidaria: internet había «perdido su alma».

La sede física de la ICANN, en California, fue motivo de molestias. De hecho su sede sigue siendo ahí. Pero en su momento, lo que disparó las contrariedades fue que la administración Bush frenaba el plan de transición para independizar la administración del sistema raíz y el DNS prometido por la administración Clinton. Por si eso no fuera suficiente, el Congreso de Estados Unidos tuvo una resolución bipartidista que confirmaba que dicha nación no pondría fin a la administración de la zona raíz de internet. La resolución indicaba que la misma debía permanecer físicamente ubicada en Estados Unidos y el Secretario de Comercio debía mantener la supervisión de la ICANN.

La indignación y los ataques de la comunidad internet organizada a la administración Bush fueron una constante durante sus dos periodos presidenciales. Las esperanzas renacieron con el arribo de Obama, pero en su primer periodo no se avanzó mucho. Para varios, la última oportunidad para que la ICANN alcanzara su plena autonomía era la administración Obama, ya que con las políticas de seguridad implementadas en Estados Unidos después de los ataques terroristas de 2011, no había disposición para que la ICANN fuera completamente independiente. La ICANN intentó resistir las especulaciones sobre la capacidad de espionaje de Estados Unidos, aferrándose a la idea de que no era más que un organismo de coordinación técnica, que no recibían financiación del gobierno estadounidense.

Incluso durante la administración Obama el Congreso de Estados Unidos aprobó una resolución unánime expresando alarma sobre la amenaza de algunos países de tomar medidas unilaterales que podrían dañar el archivo de la zona raíz,  lo que daría paso a una internet menos funcional y beneficios reducidos a los usuarios, por lo que se instó al presidente Obama a apoyar el modelo multisectorial de la ICANN e impedir transferir el control de internet a Naciones Unidas o cualquier otra organización intergubernamental.

Pero las revelaciones de Snowden a mediados de 2013 sobre el programa PRISM, que permitía a la NSA acceder a datos de gigantes tecnológicos como Google, Facebook y Microsoft, dieron paso a una indignación porque el gobierno estadounidense y sus agencias de seguridad accedían con suma facilidad a una ingente cantidad de información personal que las personas depositaban en redes sociales y múltiples servicios en línea. De ahí derivó el término «capitalismo de vigilancia», para describir esa relación entre los usuarios que desean servicios gratuitos y las empresas que los brindan y venden o transfieren los datos generados por los usuarios a anunciantes o instancias gubernamentales.

Lo increíble es que internet no se haya balcanizado, no hubiera volado en múltiples redes nacionales o regionales. Incluso, a pesar del descrédito de la vigilancia masiva del programa PRISM y lo dado a conocer por Snowden, la reputación de Obama hizo que la ICANN no se despeñara. Poco antes de dejar la presidencia Obama, la ICANN se independizó formalmente de Estados Unidos en 2016, específicamente en el mes de octubre. Con ello se ponía fin al contrato que la ICANN mantenía con el gobierno estadounidense, en concreto con la Administración Nacional de Telecomunicaciones e Información. Probablemente, si no se hubiera dado en esa fecha hubiera sido muy complicado que la ICANN se liberara durante la administración Trump, ya que los republicanos eran enemigos de que internet se «regalara» al mundo.   

A pesar de sus desiguales trazos, la ICANN representa lo más cercano que tenemos a un marco regulatorio global para la infraestructura básica de internet, pero está lejos de ser lo que en su momento se llamó «el gobierno de internet», porque su alcance es muy limitado. Incluso personas como el mismo Gore reconocen que él y su equipo fueron ingenuos y cometieron el error en los primeros tiempos de la ICANN de no reflexionar con mayor profundidad sobre un marco más integral para internet que incluyera aspectos como la privacidad y la seguridad. Por eso mismo, por lo que fue y lo que es la ICANN, hoy suena ingenuo pensar que su modelo sería el idóneo para gestionar la inteligencia artificial.  

*@tulios 41 

Publicado en La Jornada Morelos

Internet, dominios e ICANN (1)

La columna vertebral de internet la conforma la gestión de los dominios. Para que las personas puedan navegar por ese infinito mar de contenidos que es internet, se requieren identificadores o domicilios que les permitan acudir a las páginas o sitios que desean, que son en realidad los dominios. Para facilitar la navegación por el ciberespacio se conformó el Sistema de Nombres de Dominio (DNS) en 1983 y con ello tener una domicialización digital. Pero desde su inició el DNS fue una función jerárquica, centralizada y centralizadora, porque en la cima de los nombres de dominio —.com, .org o .net— está la llamada «zona raíz», que actúa como fuente fidedigna de información domiciliaria.

En los años 80 cuando Jon Postel se hizo cargo de la supervisión de la administración de la raíz/DNS nadie se percató del gran poder que eso tenía. Este proceso se dio gracias a que la otrora ARPA firmó un contrato con Postel, de Network Information Center (NIC) del Information Sciences Institute de la Universidad del Sur de California, para que él se encargara de ser la autoridad administrativa del DNS. Todo caminaba tranquilamente, pero eso cambió en los años 90 cuando internet empezó a masificarse, cuando la otorgación de dominios se volvió conflictiva por las aristas políticas, económicas y comerciales que empezó a conllevar.

Los primeros conflictos en torno a los nombres de dominio involucraron a diversos gobiernos y organizaciones civiles que exigían mayor autonomía en la gestión del DNS. Ante esta presión, durante el gobierno de Bill Clinton (1993-2001) se plantearon dos medidas clave: la creación de la Corporación de Internet para la Asignación de Nombres y Números (ICANN), encargada de administrar el DNS y la zona raíz; y el compromiso de que en el año 2000 el gobierno de Estados Unidos dejaría de ejercer control directo o indirecto de la ICANN, incluyendo la gestión del DNS y el archivo de la zona raíz.

En aquel momento, para manejar las diversas, y a menudo conflictivas posturas sobre la gobernanza de internet, el equipo del entonces vicepresidente de Estados Unidos, Albert Gore, fue quien ideó una solución ambiciosa: la creación de la ICANN. Esta entidad peculiar, diseñada para la cultura política de la época, sería la encargada de la gestión del DNS, asegurando en la misma la representación de las múltiples partes interesadas en el desarrollo de la red. Sin embargo, los avances fueron mínimos en la transferencia de la gestión de los servidores raíz y el DNS a una entidad verdaderamente independiente. La oposición interna en Estados Unidos a este esquema de la ICANN fue constante, y el desacuerdo resultante solo profundizó la confusión y el estancamiento.

Para dar cuenta de la magnitud del desafío de Gore no solo tuvo en contra de la gestión del DNS por parte de la ICANN a gobiernos de distintos países, a políticos de su país, sino también a pioneros de internet. Incluso para académicos como Meghan Grosse, consideraron que Gore y su equipo hacían uso de una estratagema cínica para proteger el poder y los intereses estadounidenses, en lugar de un intento genuino de preservar la cultura original de internet.

Ciertamente un tratado internacional bien podría haber cambiado esto, pero existía la genuina convicción de Gore y su equipo de funcionarios de que, en el sistema globalizado posterior a la Guerra Fría, internet requería algo que pudiera avanzar con mayor rapidez en la toma de decisiones que como acontece en las organizaciones tradicionales basadas en tratados, o entre pares gubernamentales. De hecho, Vinton Cerf era partidario que la ONU fuera la sede para la gobernanza global de internet. Tanto Cerf, como Crocker y Postel, viendo el futuro poder que tendría internet, querían un organismo asociado con la ONU y con sede en Ginebra, y se enfadaron cuando Gore e Ira Magaziner, asesor de Clinton, desecharon esa propuesta.

Lo que resultó al final fue un entidad privada contratada por el Departamento de Comercio y con sede en California. A pesar de los embates, Gore se mantuvo firme en su creencia en la promesa de la nueva frontera —del triunfo de la razón y la ciencia— y por fin contó con el apoyo bipartidista para sacar eso adelante. A la larga, viendo los resultados finales Gore peco de ingenuo, pero durante los años 90 parecía que el legado contracultural podía armonizar con el lucro, el despliegue del saber y la ciencia y el comercio.

Lo cierto, es que la administración Clinton terminó y Al Gore no llegó a la presidencia en el año 2000 y quedó fuera de la jugada en una elección empañada de fraude. Llegaron los republicanos nada partidarios de que el DNS y todo lo que tuviera que ver con internet fuera gestionado por múltiples partes. Se empantanó el futuro de la ICANN, que empeoró con el 11-S, ya que los ataques terroristas hicieron que la administración Bush viera a internet como arma de inteligencia y herramienta de vigilancia masiva para usar a una escala sin precedentes. En tal escenario era iluso imaginarse la autonomía de la ICANN.

Pero eso avivo la animadversión de una parte significativa de la comunidad internet contra el control del DNS y la raíz de internet por parte de Estados Unidos. El enorme crecimiento de usuarios fuera de Estados Unidos se tradujo en coaliciones cada vez más poderosas que no veían con buenos ojos que los organismos que tomaban decisiones políticas sobre las operaciones de internet derivaran su autoridad del gobierno estadounidense. La lucha por el control del servidor raíz se tornó una lucha por la identidad de la red. ¿El ciberespacio pertenecía a la etérea comunidad global de internet o al gobierno estadounidense?

En 2012, la UIT (Unión Internacional de Telecomunicaciones) albergó la Conferencia Mundial de Telecomunicaciones Internacionales, con el fin de actualizar la regulación global de las telecomunicaciones. Varios representantes de países asistentes tomaron la palabra, e intentaron usar las negociaciones rutinarias para imponer una medida vinculante a favor de una nueva regulación intergubernamental de internet. Posteriormente un grupo de países —India, Brasil y Sudáfrica— celebraron una cumbre en la que expresaron su intención de obtener un mayor control sobre internet. Al mismo tiempo, Rusia y China habían estado presionando para que la ONU tuviera un mayor control sobre la raíz de internet, y el propio Putin abogó por un mayor papel de la UIT en la gobernanza de internet.

La ICANN fue una institución puente, lejos del equilibrio del ritmo gradual de las organizaciones tradicionales basadas en tratados, pero con cierta rapidez para solventar las demandas. Pero también fue un puente entre culturas, antiguas y nuevas. Reunió a una recién formada «comunidad de internet» con experiencia, nacida de la ingeniería académica y la computación, con una comunidad empresarial consolidada, ilusionada por el auge de las cotizaciones bursátiles. La ICANN, al final, fue una solución innovadora a un problema importante y de gestión. Después diría el mismo Cerf que la ICANN fue «un milagro». Pero su plena autonomía se lograría hasta el segundo periodo presidencial de Barak Obama, aunque también mostraría sus limitaciones.

@tulios41

Publicado en La Jornada Morelos

Audiencias, consumos y censura

La inteligencia artificial (IA) es herramienta ideal para diversos medios ya que analiza el comportamiento del usuario, sus temas de interés, historial de lectura y preferencias, para proponerle noticias y contenidos que vayan en sintonía con sus gustos. Los algoritmos de IA analizan el comportamiento del usuario (clics, tiempo de lectura, temas favoritos) y ofrecen noticias personalizadas. Se usan variantes como machine learning supervisado con el objetivo de predecir intereses.

De acuerdo con un estudio reciente del Instituto Reuters, la IA la usan los medios para redactar noticias breves o resúmenes, especialmente en deportes, finanzas o meteorología, donde los datos se ofrecen de manera abundante y estructurados. Herramientas de procesamiento del lenguaje natural, así como los modelos de lenguaje de gran escala, convierten datos (por ejemplo, resultados deportivos o informes financieros) en textos narrativos coherentes y digeribles para las audiencias. Esto es tal que el Washington Post cuenta con Heliograf, una herramienta para generar reportes deportivos automatizados y disponibles para sus lectores en tiempo real.

Lo interesante del estudio de Instituto Reuters es que los consumidores de medios no se declaran fervorosos dependientes de la IA. Las audiencias tienden a mostrar mayor escepticismo hacia la personalización de noticias. La investigación evidencia un interés más marcado en el uso de la IA para adaptar los formatos —especialmente los que hacen más accesible o eficiente el consumo informativo—, que en la personalización de contenidos, la cual despierta ciertas inquietudes o suspicacias debido a los algoritmos de recomendación, incluyendo el temor a perder información relevante.

Actualizaciones y retrocesos en telecomunicaciones

Tras una serie de foros públicos, discusiones y críticas desde la industria de telecomunicaciones, academia, analistas y sociedad civil, se aprobó recientemente la nueva Ley de Telecomunicaciones y Radiodifusión que entre otras cosas destaca por cancelar la competencia, la autonomía regulatoria y el fortalecimiento institucional que identificaron a la Reforma de Telecomunicaciones de 2014. Contra lo que suponíamos, se hicieron ciertas enmiendas a la iniciativa, por ejemplo fueron eliminados algunos de los artículos más controvertidos (el 109 que facultaba el bloqueo de plataformas digitales) y se introdujeron ajustes relevantes, pero en términos generales el espíritu de la nueva reforma es una regresión institucional y normativa para el sector.

El gran retroceso está en la desaparición del IFT, un órgano constitucional autónomo y colegiado, que garantizaba una regulación técnica, independiente y con contrapesos, que si bien podría tener deficiencias podría mejorarse y darle mayor robustez a sus decisiones. El IFT será sustituido por la Agencia de Transformación Digital y Telecomunicaciones (ATDT), dependiente del Ejecutivo —lo que nos regresa a la época de la Cofetel, que dependía de la Secretaría de Gobernación—. La ATDT no regulará las telecomunicaciones, ya que eso lo efectuará la Comisión de Regulación de Telecomunicaciones (CRT) como instancia colegiada, aunque sus integrantes también serán designados por el Ejecutivo e incluso removidos en cualquier momento por este, lo que evidencia claramente la carencia de independencia y la sujeción al ejecutivo de dicho órgano.

Varios otros aspectos pueden comentarse de esta reforma, por cuestiones de espacio abordaremos el relativo a la libertad de expresión en los medios y el derecho de las audiencias, que ha sido motivo de posturas encontradas: unos comunicadores lo ven como la puerta a la censura y el fin de la libertad de expresión, mientras que los defensores de los derechos de las audiencias lo ven como la panacea de una mejora en la calidad del consumo de contenidos.

El defensor de las audiencias, también conocido como ombudsman de medios o defensor del lector, radioescucha o televidente, su función principal es actuar como intermediario entre el público y los medios de comunicación, garantizando que los contenidos sean éticos, veraces y respeten los derechos de las audiencias. Es una figura ya presente en nuestro país y salvo casos excepcionales, los defensores de audiencias han pasado sin pena ni gloria. Hasta ahora, los medios privados no han hecho esfuerzos por destacar esa figura —aunque con la nueva ley tendrán la obligación de hacerlo—, mientras que los medios públicos la incorporan pero como figura decorativa e incluso en estos casos hablamos de ser medios carentes de audiencias, que ni siquiera saben quiénes los ven o escuchan e incluso con programación cambiante y abrupta cancelación de conductores y de programas y donde los defensores de las audiencias de nada sirven para enmendar atropellos y cambios sin sentido.

Dentro de las funciones del defensor de audiencias está representar los intereses del público, procesar las quejas y comentarlas con los directivos de los medios o las instancias motivo de los cuestionamientos o quejas. También, el defensor debe promover la transparencia y rendición de cuentas de los medios, analizando las prácticas periodísticas o de producción de los medios, señalando errores, sesgos o violaciones a códigos de ética, y proponer mejoras; una cuestión que no efectúan los defensores de audiencias, por lo que son una figura decorativa, su papel tanto en medios públicos como privados pasa sin pena ni gloria, y en gran parte eso mismo se debe a la pasividad de las audiencias que hoy día se han volcado a las redes sociales donde sí traban una interacción que no tendrán en los medios convencionales.

Tal como están las cosas ahora en México, el defensor de audiencias destaca por su falta de independencia, su autonomía está en cuestionamiento ya que los defensores son designados por los propios medios o autoridades, lo que de entrada genera conflictos de interés. Tiene exigua incidencia efectiva: sus recomendaciones no son vinculantes, por lo que fácilmente pueden ser ignoradas y no tener consecuencias. Las audiencias desconocen la existencia del defensor o no saben cómo contactarlo, lo que reduce su efectividad; no les interesa presentar quejas y enfrascarse en trámites burocráticos, ya que si presentan alguna tienen una percepción de ineficacia del defensor de audiencias y que solo ofrecen respuestas genéricas o defensivas, sin abordar a fondo las preocupaciones planteadas.

Así que la censura no vendrá de los defensores de audiencias. De hecho, la censura ya está instalada y se expresa como un mecanismo que no solo silencia voces, sino que pervierte el lenguaje mismo, las palabras pierden su significado original y se convierten en máscaras vacías. Lo peor, como dice Kundera, es la extensión de la autocensura, que es más insidiosa, cuando el periodista o comunicador escucha al censor dentro de su propia cabeza, cuando las tijeras invisibles cortan las frases antes de llegar al teclado o la pantalla. Es una traición al oficio y así mismo, porque por tratar de conservar el empleo se renuncia voluntariamente a describir las arbitrariedades del gobierno.

@tulios41

Publicado en La Jornada Morelos.

Bifurcaciones de la inteligencia artificial

miércoles, 25 de junio de 2025

Desde que Thomas McCarthy no se le ocurriera un mejor término que inteligencia artificial (IA) para designar el nuevo campo científico y tecnológico que proponía a algunos de sus pares para desarrollar, la palabra pasó a convertirse en presa de malos entendidos, polémicas y que fueron como gasolina para incendiar discusiones, enfrascarse en disputas y debates, alterando puntos de vista de mentes que no concebían que se llamara inteligente a una máquina o a un software.

Lo cierto es que a inicios de los años cincuenta del siglo pasado, había un entusiasmo por las cuestiones computacionales, por lo menos había dos enfoques y calificativos para denominar el incipiente campo de estudio de las denominadas «máquinas pensantes», uno era la cibernética y el otro la teoría de autómatas, por lo que McCarthy consideró que ambos términos eran limitados para responder a lo que tenía en mente, para generar una nueva disciplina científica.

Por eso, McCarthy eligió el término IA por considerarlo más neutro y más global, lo que permitiría dar vida a un campo que abarcara todas las capacidades cognitivas humanas y que al mismo tiempo pudieran ser simuladas por máquinas, pero abierto a su estudio por parte de cualquier teoría o escuela de pensamiento. Y fue eso que llevó a McCarthy a desplegar su idea en la Conferencia de Dartmouth en 1956 y reunir a una pléyade de científicos, de lanzar oficialmente la IA como campo de investigación científica.

Lo que desembocó en reyertas y disputas fue que de inmediato surgieron quienes no aceptaron que se equipararan los procesos computacionales con la inteligencia humana, que se consideró un despropósito y un ninguneo del homo sapiens. No se podía comprender cómo se asociaban los procesos de IA con los biológicos propios de la mente humana, ya que eran completamente disímbolos, aunque el tiempo ha venido atemperando estas consideraciones. Eso no quiere decir que hoy el debate y las desavenencias no sigan vigentes, ya que eso de la IA sigue siendo fuente de altercados, malentendidos y controversias, tanto en el ámbito científico como en la percepción pública, debido a la misma carga semántica y las expectativas depositadas por los humanos en el calificativo de inteligencia o inteligente.

Más allá de pendencias, interesante es que desde dicha Conferencia el estudio de la IA se bifurcó en dos grandes corrientes: el conexionismo —enfocado en las redes neuronales y el aprendizaje basado en datos— y el cognitivismo —dirigido hacia la representación del conocimiento, el razonamiento y la lógica, buscando imitar la manera en que los humanos piensan y resuelven problemas—. Al inicio fueron los segundos los que dieron de que hablar: dieron paso a productos que preludiaban grandes avances con sus sistemas expertos —efectuados por expertos humanos que generaban reglas para que los programas las usaran para solucionar tareas como el diagnóstico médico o la toma de decisiones en determinados sectores como el energético, por ejemplo—, que deslumbraron en los años setenta a los interesados en ese emergente campo científico. Con el tiempo, la IA, cargada de fases de optimismo y de estancamiento, ha llegado hasta nuestros días arrastrando dos conceptos claves que identifican a cada una de esas corrientes: lo simbólico y lo subsimbólico.

El cognitivismo es un enfoque sobre todo simbólico, por lo que la cognición humana se explica a través de la manipulación de símbolos y representaciones mentales, postulando la existencia de un nivel simbólico irreductible que se sitúa por encima del nivel físico o neurobiológico. Los símbolos, en este contexto, son ítems semánticos sobre los que se realizan operaciones computacionales, y la mente se concibe como una máquina simbólica capaz de procesar información de manera representacional y formal.

Por su parte, el enfoque conexionista es subsimbólico, que quiere decir que se enfoca en la representación distribuida del conocimiento en redes neuronales, en lugar de utilizar símbolos y reglas explícitas como se hace en la IA simbólica. En la IA conexionista, el conocimiento se representa a través de patrones que sirven de disparadores o activadores en las redes neuronales, lo que puede hacer que sea más complicado o difícil de interpretar y explicar en comparación con la IA simbólica, que usa símbolos y reglas para representar el conocimiento de manera más explícita y transparente.

Hoy día se puede decir que el conexionismo de ser el negrito en el arroz en los años setenta del siglo pasado, ha ganado un peso significativo y han transformado profundamente el campo de la IA. El conexionismo ha tenido un efecto notable al ofrecer modelos que simulan cómo el cerebro procesa la información mediante redes neuronales artificiales, lo que ha desembocado en avances importantes en el llamado aprendizaje automático, el reconocimiento de patrones y el procesamiento del lenguaje natural, que son los campos más prometedores de la IA en la actualidad. Es así como el enfoque subsimbólico, inspirado en la neurofisiología, ha venido a dotar de soportes cercanos a la realidad biológica de la cognición que los modelos simbólicos tradicionales. Pero como la historia de la IA ha demostrado, no se puede dar por muerto el cognitivismo —que no ha desaparecido ni ha sido completamente reemplazado— y lo simbólico, ya que amos conviven en la actualidad y como ejemplo tenemos que la psicología cognitiva sigue integrando elementos de ambos enfoques, aunque la fuerza del conexionismo no se puede pasar por alto.

Pero lo importante es entender que una disciplina que fue lanzada oficialmente en 1956, en donde estaban definidas dos corrientes claras sigan vigentes hoy día, que esa división filosófica que se produjo en los primeros días de la investigación sobre IA —la simbólica y la subsimbólica— sigan todavía siendo piedra angular del desarrollo de un campo que para unos está más sólido que nunca, y para otros se está resquebrajando y empieza a dar muestras de entrar en una nueva fase de declive.

A pesar del auge de lo subsimbólico, de que parece ser la vía más robusta para futuros éxitos de la IA, todavía suenan los ecos defendidos por los simbólicos: para que los equipos sean inteligentes, no es necesario construir unos programas que imiten el cerebro, sino que es posible capturar totalmente la inteligencia general con un programa apropiado de procesamiento de símbolos y ya está el poder de cálculo y las toneladas de datos para que eso pueda ser realidad. Pero una cosa es clara: si bien los investigadores implicados en el presente en la IA consideran que están libres de ataduras para evaluar lo que son los derroteros de la IA, será la observación posterior, la que se dé en unas cuantas décadas, la que podrá discernir quien tiene la razón, en dónde falló lo que hoy se pone en marcha y qué acontecimientos fueron los más sólidos.

@tulios41

 Publicado en La Jornada Morelos 

 
Creada por laeulalia basada en la denim de blogger.