El futuro de Apple

domingo, 31 de agosto de 2025

Desde su fundación en un supuesto garaje en 1976, pasando por su crecimiento en la década de 1980 hasta su casi bancarrota en 1996 y convertirse en el mayor titán de las empresas tecnológicas, Apple se ha distinguido por fabricar productos refinados, que destacan por su diseño y por vincular sólidamente hardware y sistema operativo. Desde sus inicios la empresa de las manzanas empezó a fabricar sus propios equipos, con su crecimiento empezó a operar importantes fábricas en California, Colorado, Irlanda y Singapur; pero poco antes de que Steve Jobs retornara a la compañía, en 1997, Apple optó por deslocalizar su producción en múltiples fabricantes y países. Su producción se trasladó a Corea del Sur y Taiwán, pasó por México, Gales, República Checa y China, en donde se ha establecido desde hace varios años y en donde fabrica el grueso de sus productos.

El éxito de Apple es impensable sin China, en donde ha logrado producir los mejores gadgets y equipos demandados en el mundo pero sin fabricar ninguna parte de los mismos. Por eso, resultó extraño que en pasados días Apple indicara que incrementó su plan de inversión en Estados Unidos a 600 mil millones de dólares que se aplicarán a lo largo de los próximos años. Aunque ya en febrero de 2025 había referido que invertiría 500 mil millones de dólares, ahora solo agregó 100 mil millones más. (shre.ink/t8VT) Esa inversión tiene el objetivo de calmar las presiones y amenazas de Trump de que si Apple no traslada su producción de iPhones a Estados Unidos, le aplicará aranceles del 25% a sus productos.

Sin embargo, ¿qué factible es que Apple abandone la fabricación de sus productos de China? Siguiendo el análisis de Patrick McGee en Apple in China, es muy complicado que eso sea posible en el corto lapso. Es cierto que a Apple también le urge no depender tanto de China. En lo que sigue nos apoyaremos en lo referido por McGee.

De acuerdo con él, Apple empezó a trasladar en la última década del siglo XX fuera de Estados Unidos, y de manera desigual, la fabricación de sus productos, pero fue a partir de la siguiente década, concretamente en 2007 con el lanzamiento del iPhone, que la manufactura china se volvió crítica e indisociable de Apple. A partir de ese momento, la cadena de suministro de Apple dependió de China, cuando prácticamente la totalidad de proveedores de los productos de Apple trasladaron su manufactura y producción a instalaciones chinas, logrando con ello un ecosistema para solucionar cualquier problema en horas o pocos días, cuestión que en Estados Unidos tardaría mucho más tiempo en solventarse.

Ha sido un matrimonio de conveniencias. Por un lado, China convenció a Apple de ser capaz de fabricar sus productos a una alta calidad, por su parte Apple le hizo ver a Pekín que no era un simple comerciante, sino una especie de mecenas y mentor que financia, capacita, supervisa y abastece a los fabricantes chinos, que prepara mano de obra de alta calidad. En este juego, el autor refiere que no se trata solo de que Apple explote a los trabajadores chinos, sino de que Pekín permite que Apple lo haga, para que China, a su vez, explote a Apple. Se estima que cerca de 30 millones de chinos han sido capacitados por ingenieros y especialistas de Apple.

Pero más allá de los ahorros que China representa, también es importante ese país para Apple como mercado ya que es el tercero en consumo de sus productos: está después de Estados Unidos y Europa. Pero vender y operar en China no ha sido gratuito, Apple ha tenido que ceñirse a las exigencias del gobierno chino y aplicar un fuerte control del contenido del iPhone, que los datos de los clientes se alojen en centros de datos chinos y ha tenido que asociarse con empresas locales y ofrecer su know how a los chinos.

Más allá de esas actitudes convenencieras que caracterizan a los gigantes de internet y al capital en general, Apple se ha visto forzada a buscar alternativas a China. Por un lado, las presiones de Trump y sus represalias arancelarias, amén de que no quiere que Cupertino mantenga su producción en China, pero también porque desde el arribo de Xi Jinping al poder en China en 2013, este ha presionado a Apple para censurar información como obligarla a que invierta fuerte en el país y capacite mano de obra china, haciendo de Apple la mejor fuente de capacitación de alta tecnología en China. Por eso ha empezado a migrar parte de su producción a India y Vietnam.

Pero, de acuerdo con McGee, es difícil imaginar que en corto tiempo Apple prescinda de China. La empresa de Cupertino trabaja con más de 1,500 proveedores en múltiples países. Pero todos los productos pasan por China: el 90% de su producción se concentra en ese país, y sus famosas plantas de ensamblaje en Vietnam e India dependen igualmente de la cadena de suministro centrada en China. Ningún otro país se acerca remotamente a ofrecer la combinación adecuada de calidad, escala y flexibilidad necesaria que ofrece China para remitir al mercado la friolera de 500 millones de productos de Apple al año.

Como dice Kevin O'Marah (especialista en cadenas de suministro y comercio), citado por McGee, sobre la cadena de suministro de Apple: «No es realmente una cadena de suministro global. En teoría, lo es; pero en la práctica, es un conjunto de procesos y productos, ingeniería y producción totalmente diseñado, y todo sincronizado en un solo lugar: [China]» Además, agrega: «Van a tener un problema enorme para salir de [China]». Por si fuera poco, la «velocidad china» es insuperable: la capacidad de realizar las tareas a un ritmo incomprensible para los occidentales y que para nada tienen India o Vietnam. En China, por ejemplo, uno de los proveedores favoritos de Apple, Foxconn, puede pasar de cero productos a 100 mil al día con facilidad, algo impensable de hacer en Estados Unidos, Vietnam o la India. Incluso en Estados Unidos no hay mano de obra que esté al mismo nivel que existe actualmente en China.

En 2024 inició Apple operaciones en India donde apenas se encuentra en las primeras etapas de desarrollo para la «introducción de nuevos productos». En Vietnam, sucede lo mismo. Los dos principales argumentos que respaldan el potencial de la India son su enorme fuerza laboral y su mano de obra barata, pero carece de la flexibilidad que tienen los chinos. Como refiere McGee, lo que China ofrece a Apple no es simplemente mano de obra, sino todo un ecosistema de procesos desarrollado durante más de dos décadas y que no es fácil de sustituir. Por ello, se ve complicado que en los próximos cinco años Apple abandone China.

Lo cierto, es que no podemos pasar por alto que China se ha convertido en un «titán tecnológico», asombra que haya avanzado muy rápido en áreas tan complejas como la electrónica de punta o la misma inteligencia artificial, parte de la respuesta es que Apple les transfirió ese conocimiento en buena medida. Año tras año, Apple tomó los diseños, procesos y conocimientos técnicos más vanguardistas de todo el mundo y los reprodujo y escaló en China.

@tulios41

Publicado en La Jornada Morelos

Internet, dominios e ICANN (2)

En sus inicios, la ICANN (Corporación de Internet para la Asignación de Nombres y Números) careció de plena autonomía. La influencia del gobierno estadounidense sobre dicho organismo no la ejercía directamente, sino vía el Departamento de Comercio, que era el contratante de la ICANN.  A pesar de los cuestionamientos a la ICANN, fue una innovación radical que se legitimó con sus decisiones basadas en el consenso, propio del internet inicial. Se diseñó para que fuera multisectorial, lo que significa que ninguna facción o poder tenía el control absoluto del organismo. La operación de la ICANN, sus decisiones, se basaron en el modelo de múltiples partes interesadas —hoy extendido hasta en la sopa—, abierto, transparente y basado en el consenso, básicamente fue una versión moderna o actualizada de las RFC. El ámbito de competencia de la ICANN fue limitado, pero de grandes consecuencias: Se ciñó en los identificadores únicos, los domicilios de internet y específicos, pero de suma importancia para que opere la internet global: nombres de dominio, direcciones IP y protocolos. En esa forma de operar de la ICANN pervivían vestigios de la contracultura antiautoritaria y rebelde de la década de 1960, pues no existía una base legal para regular todo el sistema. La ICANN se estableció como una asociación voluntaria, y así sigue siendo. Nada obliga a sus participantes —gobiernos, asociaciones, empresas…— a permanecer en la ICANN.

Por un lado en una política de la ICANN sobre una resolución de disputas, las entidades privadas involucradas están obligadas a cumplirla, o pueden perder su acreditación. Pero sus políticas no son vinculantes para los gobiernos: un país puede imponer sus propias leyes, que incluso pueden contradecir a las políticas de la ICANN. Esta forma de operar parecería ser un vestigio contracultural, pero no es así ya que si bien el mecanismo de actuación de la ICANN surgió de un contexto idealista pronto fue cooptado por quienes creían que el mercado era la mejor solución. En los inicios de la ICANN, los idealistas lograron darle una apariencia de apertura y comunidad, pero con fuertes limitaciones. Al final, la visión inicial de Al Gore de que la ICANN apuntalara o impulsara una red de investigación con garantías de acceso justo y supervisión gubernamental, fueron sacrificadas en favor de la comercialización, el crecimiento y la participación amplia de naciones. Al poco tiempo de afianzarse la ICANN, las ideas de Gore fueron relegadas a segundo plano ante la fiebre del oro. Janet Abbate lo resumió en 2019, y de manera lapidaria: internet había «perdido su alma».

La sede física de la ICANN, en California, fue motivo de molestias. De hecho su sede sigue siendo ahí. Pero en su momento, lo que disparó las contrariedades fue que la administración Bush frenaba el plan de transición para independizar la administración del sistema raíz y el DNS prometido por la administración Clinton. Por si eso no fuera suficiente, el Congreso de Estados Unidos tuvo una resolución bipartidista que confirmaba que dicha nación no pondría fin a la administración de la zona raíz de internet. La resolución indicaba que la misma debía permanecer físicamente ubicada en Estados Unidos y el Secretario de Comercio debía mantener la supervisión de la ICANN.

La indignación y los ataques de la comunidad internet organizada a la administración Bush fueron una constante durante sus dos periodos presidenciales. Las esperanzas renacieron con el arribo de Obama, pero en su primer periodo no se avanzó mucho. Para varios, la última oportunidad para que la ICANN alcanzara su plena autonomía era la administración Obama, ya que con las políticas de seguridad implementadas en Estados Unidos después de los ataques terroristas de 2011, no había disposición para que la ICANN fuera completamente independiente. La ICANN intentó resistir las especulaciones sobre la capacidad de espionaje de Estados Unidos, aferrándose a la idea de que no era más que un organismo de coordinación técnica, que no recibían financiación del gobierno estadounidense.

Incluso durante la administración Obama el Congreso de Estados Unidos aprobó una resolución unánime expresando alarma sobre la amenaza de algunos países de tomar medidas unilaterales que podrían dañar el archivo de la zona raíz,  lo que daría paso a una internet menos funcional y beneficios reducidos a los usuarios, por lo que se instó al presidente Obama a apoyar el modelo multisectorial de la ICANN e impedir transferir el control de internet a Naciones Unidas o cualquier otra organización intergubernamental.

Pero las revelaciones de Snowden a mediados de 2013 sobre el programa PRISM, que permitía a la NSA acceder a datos de gigantes tecnológicos como Google, Facebook y Microsoft, dieron paso a una indignación porque el gobierno estadounidense y sus agencias de seguridad accedían con suma facilidad a una ingente cantidad de información personal que las personas depositaban en redes sociales y múltiples servicios en línea. De ahí derivó el término «capitalismo de vigilancia», para describir esa relación entre los usuarios que desean servicios gratuitos y las empresas que los brindan y venden o transfieren los datos generados por los usuarios a anunciantes o instancias gubernamentales.

Lo increíble es que internet no se haya balcanizado, no hubiera volado en múltiples redes nacionales o regionales. Incluso, a pesar del descrédito de la vigilancia masiva del programa PRISM y lo dado a conocer por Snowden, la reputación de Obama hizo que la ICANN no se despeñara. Poco antes de dejar la presidencia Obama, la ICANN se independizó formalmente de Estados Unidos en 2016, específicamente en el mes de octubre. Con ello se ponía fin al contrato que la ICANN mantenía con el gobierno estadounidense, en concreto con la Administración Nacional de Telecomunicaciones e Información. Probablemente, si no se hubiera dado en esa fecha hubiera sido muy complicado que la ICANN se liberara durante la administración Trump, ya que los republicanos eran enemigos de que internet se «regalara» al mundo.   

A pesar de sus desiguales trazos, la ICANN representa lo más cercano que tenemos a un marco regulatorio global para la infraestructura básica de internet, pero está lejos de ser lo que en su momento se llamó «el gobierno de internet», porque su alcance es muy limitado. Incluso personas como el mismo Gore reconocen que él y su equipo fueron ingenuos y cometieron el error en los primeros tiempos de la ICANN de no reflexionar con mayor profundidad sobre un marco más integral para internet que incluyera aspectos como la privacidad y la seguridad. Por eso mismo, por lo que fue y lo que es la ICANN, hoy suena ingenuo pensar que su modelo sería el idóneo para gestionar la inteligencia artificial.  

*@tulios 41 

Publicado en La Jornada Morelos

Internet, dominios e ICANN (1)

La columna vertebral de internet la conforma la gestión de los dominios. Para que las personas puedan navegar por ese infinito mar de contenidos que es internet, se requieren identificadores o domicilios que les permitan acudir a las páginas o sitios que desean, que son en realidad los dominios. Para facilitar la navegación por el ciberespacio se conformó el Sistema de Nombres de Dominio (DNS) en 1983 y con ello tener una domicialización digital. Pero desde su inició el DNS fue una función jerárquica, centralizada y centralizadora, porque en la cima de los nombres de dominio —.com, .org o .net— está la llamada «zona raíz», que actúa como fuente fidedigna de información domiciliaria.

En los años 80 cuando Jon Postel se hizo cargo de la supervisión de la administración de la raíz/DNS nadie se percató del gran poder que eso tenía. Este proceso se dio gracias a que la otrora ARPA firmó un contrato con Postel, de Network Information Center (NIC) del Information Sciences Institute de la Universidad del Sur de California, para que él se encargara de ser la autoridad administrativa del DNS. Todo caminaba tranquilamente, pero eso cambió en los años 90 cuando internet empezó a masificarse, cuando la otorgación de dominios se volvió conflictiva por las aristas políticas, económicas y comerciales que empezó a conllevar.

Los primeros conflictos en torno a los nombres de dominio involucraron a diversos gobiernos y organizaciones civiles que exigían mayor autonomía en la gestión del DNS. Ante esta presión, durante el gobierno de Bill Clinton (1993-2001) se plantearon dos medidas clave: la creación de la Corporación de Internet para la Asignación de Nombres y Números (ICANN), encargada de administrar el DNS y la zona raíz; y el compromiso de que en el año 2000 el gobierno de Estados Unidos dejaría de ejercer control directo o indirecto de la ICANN, incluyendo la gestión del DNS y el archivo de la zona raíz.

En aquel momento, para manejar las diversas, y a menudo conflictivas posturas sobre la gobernanza de internet, el equipo del entonces vicepresidente de Estados Unidos, Albert Gore, fue quien ideó una solución ambiciosa: la creación de la ICANN. Esta entidad peculiar, diseñada para la cultura política de la época, sería la encargada de la gestión del DNS, asegurando en la misma la representación de las múltiples partes interesadas en el desarrollo de la red. Sin embargo, los avances fueron mínimos en la transferencia de la gestión de los servidores raíz y el DNS a una entidad verdaderamente independiente. La oposición interna en Estados Unidos a este esquema de la ICANN fue constante, y el desacuerdo resultante solo profundizó la confusión y el estancamiento.

Para dar cuenta de la magnitud del desafío de Gore no solo tuvo en contra de la gestión del DNS por parte de la ICANN a gobiernos de distintos países, a políticos de su país, sino también a pioneros de internet. Incluso para académicos como Meghan Grosse, consideraron que Gore y su equipo hacían uso de una estratagema cínica para proteger el poder y los intereses estadounidenses, en lugar de un intento genuino de preservar la cultura original de internet.

Ciertamente un tratado internacional bien podría haber cambiado esto, pero existía la genuina convicción de Gore y su equipo de funcionarios de que, en el sistema globalizado posterior a la Guerra Fría, internet requería algo que pudiera avanzar con mayor rapidez en la toma de decisiones que como acontece en las organizaciones tradicionales basadas en tratados, o entre pares gubernamentales. De hecho, Vinton Cerf era partidario que la ONU fuera la sede para la gobernanza global de internet. Tanto Cerf, como Crocker y Postel, viendo el futuro poder que tendría internet, querían un organismo asociado con la ONU y con sede en Ginebra, y se enfadaron cuando Gore e Ira Magaziner, asesor de Clinton, desecharon esa propuesta.

Lo que resultó al final fue un entidad privada contratada por el Departamento de Comercio y con sede en California. A pesar de los embates, Gore se mantuvo firme en su creencia en la promesa de la nueva frontera —del triunfo de la razón y la ciencia— y por fin contó con el apoyo bipartidista para sacar eso adelante. A la larga, viendo los resultados finales Gore peco de ingenuo, pero durante los años 90 parecía que el legado contracultural podía armonizar con el lucro, el despliegue del saber y la ciencia y el comercio.

Lo cierto, es que la administración Clinton terminó y Al Gore no llegó a la presidencia en el año 2000 y quedó fuera de la jugada en una elección empañada de fraude. Llegaron los republicanos nada partidarios de que el DNS y todo lo que tuviera que ver con internet fuera gestionado por múltiples partes. Se empantanó el futuro de la ICANN, que empeoró con el 11-S, ya que los ataques terroristas hicieron que la administración Bush viera a internet como arma de inteligencia y herramienta de vigilancia masiva para usar a una escala sin precedentes. En tal escenario era iluso imaginarse la autonomía de la ICANN.

Pero eso avivo la animadversión de una parte significativa de la comunidad internet contra el control del DNS y la raíz de internet por parte de Estados Unidos. El enorme crecimiento de usuarios fuera de Estados Unidos se tradujo en coaliciones cada vez más poderosas que no veían con buenos ojos que los organismos que tomaban decisiones políticas sobre las operaciones de internet derivaran su autoridad del gobierno estadounidense. La lucha por el control del servidor raíz se tornó una lucha por la identidad de la red. ¿El ciberespacio pertenecía a la etérea comunidad global de internet o al gobierno estadounidense?

En 2012, la UIT (Unión Internacional de Telecomunicaciones) albergó la Conferencia Mundial de Telecomunicaciones Internacionales, con el fin de actualizar la regulación global de las telecomunicaciones. Varios representantes de países asistentes tomaron la palabra, e intentaron usar las negociaciones rutinarias para imponer una medida vinculante a favor de una nueva regulación intergubernamental de internet. Posteriormente un grupo de países —India, Brasil y Sudáfrica— celebraron una cumbre en la que expresaron su intención de obtener un mayor control sobre internet. Al mismo tiempo, Rusia y China habían estado presionando para que la ONU tuviera un mayor control sobre la raíz de internet, y el propio Putin abogó por un mayor papel de la UIT en la gobernanza de internet.

La ICANN fue una institución puente, lejos del equilibrio del ritmo gradual de las organizaciones tradicionales basadas en tratados, pero con cierta rapidez para solventar las demandas. Pero también fue un puente entre culturas, antiguas y nuevas. Reunió a una recién formada «comunidad de internet» con experiencia, nacida de la ingeniería académica y la computación, con una comunidad empresarial consolidada, ilusionada por el auge de las cotizaciones bursátiles. La ICANN, al final, fue una solución innovadora a un problema importante y de gestión. Después diría el mismo Cerf que la ICANN fue «un milagro». Pero su plena autonomía se lograría hasta el segundo periodo presidencial de Barak Obama, aunque también mostraría sus limitaciones.

@tulios41

Publicado en La Jornada Morelos

Audiencias, consumos y censura

La inteligencia artificial (IA) es herramienta ideal para diversos medios ya que analiza el comportamiento del usuario, sus temas de interés, historial de lectura y preferencias, para proponerle noticias y contenidos que vayan en sintonía con sus gustos. Los algoritmos de IA analizan el comportamiento del usuario (clics, tiempo de lectura, temas favoritos) y ofrecen noticias personalizadas. Se usan variantes como machine learning supervisado con el objetivo de predecir intereses.

De acuerdo con un estudio reciente del Instituto Reuters, la IA la usan los medios para redactar noticias breves o resúmenes, especialmente en deportes, finanzas o meteorología, donde los datos se ofrecen de manera abundante y estructurados. Herramientas de procesamiento del lenguaje natural, así como los modelos de lenguaje de gran escala, convierten datos (por ejemplo, resultados deportivos o informes financieros) en textos narrativos coherentes y digeribles para las audiencias. Esto es tal que el Washington Post cuenta con Heliograf, una herramienta para generar reportes deportivos automatizados y disponibles para sus lectores en tiempo real.

Lo interesante del estudio de Instituto Reuters es que los consumidores de medios no se declaran fervorosos dependientes de la IA. Las audiencias tienden a mostrar mayor escepticismo hacia la personalización de noticias. La investigación evidencia un interés más marcado en el uso de la IA para adaptar los formatos —especialmente los que hacen más accesible o eficiente el consumo informativo—, que en la personalización de contenidos, la cual despierta ciertas inquietudes o suspicacias debido a los algoritmos de recomendación, incluyendo el temor a perder información relevante.

Actualizaciones y retrocesos en telecomunicaciones

Tras una serie de foros públicos, discusiones y críticas desde la industria de telecomunicaciones, academia, analistas y sociedad civil, se aprobó recientemente la nueva Ley de Telecomunicaciones y Radiodifusión que entre otras cosas destaca por cancelar la competencia, la autonomía regulatoria y el fortalecimiento institucional que identificaron a la Reforma de Telecomunicaciones de 2014. Contra lo que suponíamos, se hicieron ciertas enmiendas a la iniciativa, por ejemplo fueron eliminados algunos de los artículos más controvertidos (el 109 que facultaba el bloqueo de plataformas digitales) y se introdujeron ajustes relevantes, pero en términos generales el espíritu de la nueva reforma es una regresión institucional y normativa para el sector.

El gran retroceso está en la desaparición del IFT, un órgano constitucional autónomo y colegiado, que garantizaba una regulación técnica, independiente y con contrapesos, que si bien podría tener deficiencias podría mejorarse y darle mayor robustez a sus decisiones. El IFT será sustituido por la Agencia de Transformación Digital y Telecomunicaciones (ATDT), dependiente del Ejecutivo —lo que nos regresa a la época de la Cofetel, que dependía de la Secretaría de Gobernación—. La ATDT no regulará las telecomunicaciones, ya que eso lo efectuará la Comisión de Regulación de Telecomunicaciones (CRT) como instancia colegiada, aunque sus integrantes también serán designados por el Ejecutivo e incluso removidos en cualquier momento por este, lo que evidencia claramente la carencia de independencia y la sujeción al ejecutivo de dicho órgano.

Varios otros aspectos pueden comentarse de esta reforma, por cuestiones de espacio abordaremos el relativo a la libertad de expresión en los medios y el derecho de las audiencias, que ha sido motivo de posturas encontradas: unos comunicadores lo ven como la puerta a la censura y el fin de la libertad de expresión, mientras que los defensores de los derechos de las audiencias lo ven como la panacea de una mejora en la calidad del consumo de contenidos.

El defensor de las audiencias, también conocido como ombudsman de medios o defensor del lector, radioescucha o televidente, su función principal es actuar como intermediario entre el público y los medios de comunicación, garantizando que los contenidos sean éticos, veraces y respeten los derechos de las audiencias. Es una figura ya presente en nuestro país y salvo casos excepcionales, los defensores de audiencias han pasado sin pena ni gloria. Hasta ahora, los medios privados no han hecho esfuerzos por destacar esa figura —aunque con la nueva ley tendrán la obligación de hacerlo—, mientras que los medios públicos la incorporan pero como figura decorativa e incluso en estos casos hablamos de ser medios carentes de audiencias, que ni siquiera saben quiénes los ven o escuchan e incluso con programación cambiante y abrupta cancelación de conductores y de programas y donde los defensores de las audiencias de nada sirven para enmendar atropellos y cambios sin sentido.

Dentro de las funciones del defensor de audiencias está representar los intereses del público, procesar las quejas y comentarlas con los directivos de los medios o las instancias motivo de los cuestionamientos o quejas. También, el defensor debe promover la transparencia y rendición de cuentas de los medios, analizando las prácticas periodísticas o de producción de los medios, señalando errores, sesgos o violaciones a códigos de ética, y proponer mejoras; una cuestión que no efectúan los defensores de audiencias, por lo que son una figura decorativa, su papel tanto en medios públicos como privados pasa sin pena ni gloria, y en gran parte eso mismo se debe a la pasividad de las audiencias que hoy día se han volcado a las redes sociales donde sí traban una interacción que no tendrán en los medios convencionales.

Tal como están las cosas ahora en México, el defensor de audiencias destaca por su falta de independencia, su autonomía está en cuestionamiento ya que los defensores son designados por los propios medios o autoridades, lo que de entrada genera conflictos de interés. Tiene exigua incidencia efectiva: sus recomendaciones no son vinculantes, por lo que fácilmente pueden ser ignoradas y no tener consecuencias. Las audiencias desconocen la existencia del defensor o no saben cómo contactarlo, lo que reduce su efectividad; no les interesa presentar quejas y enfrascarse en trámites burocráticos, ya que si presentan alguna tienen una percepción de ineficacia del defensor de audiencias y que solo ofrecen respuestas genéricas o defensivas, sin abordar a fondo las preocupaciones planteadas.

Así que la censura no vendrá de los defensores de audiencias. De hecho, la censura ya está instalada y se expresa como un mecanismo que no solo silencia voces, sino que pervierte el lenguaje mismo, las palabras pierden su significado original y se convierten en máscaras vacías. Lo peor, como dice Kundera, es la extensión de la autocensura, que es más insidiosa, cuando el periodista o comunicador escucha al censor dentro de su propia cabeza, cuando las tijeras invisibles cortan las frases antes de llegar al teclado o la pantalla. Es una traición al oficio y así mismo, porque por tratar de conservar el empleo se renuncia voluntariamente a describir las arbitrariedades del gobierno.

@tulios41

Publicado en La Jornada Morelos.

Bifurcaciones de la inteligencia artificial

miércoles, 25 de junio de 2025

Desde que Thomas McCarthy no se le ocurriera un mejor término que inteligencia artificial (IA) para designar el nuevo campo científico y tecnológico que proponía a algunos de sus pares para desarrollar, la palabra pasó a convertirse en presa de malos entendidos, polémicas y que fueron como gasolina para incendiar discusiones, enfrascarse en disputas y debates, alterando puntos de vista de mentes que no concebían que se llamara inteligente a una máquina o a un software.

Lo cierto es que a inicios de los años cincuenta del siglo pasado, había un entusiasmo por las cuestiones computacionales, por lo menos había dos enfoques y calificativos para denominar el incipiente campo de estudio de las denominadas «máquinas pensantes», uno era la cibernética y el otro la teoría de autómatas, por lo que McCarthy consideró que ambos términos eran limitados para responder a lo que tenía en mente, para generar una nueva disciplina científica.

Por eso, McCarthy eligió el término IA por considerarlo más neutro y más global, lo que permitiría dar vida a un campo que abarcara todas las capacidades cognitivas humanas y que al mismo tiempo pudieran ser simuladas por máquinas, pero abierto a su estudio por parte de cualquier teoría o escuela de pensamiento. Y fue eso que llevó a McCarthy a desplegar su idea en la Conferencia de Dartmouth en 1956 y reunir a una pléyade de científicos, de lanzar oficialmente la IA como campo de investigación científica.

Lo que desembocó en reyertas y disputas fue que de inmediato surgieron quienes no aceptaron que se equipararan los procesos computacionales con la inteligencia humana, que se consideró un despropósito y un ninguneo del homo sapiens. No se podía comprender cómo se asociaban los procesos de IA con los biológicos propios de la mente humana, ya que eran completamente disímbolos, aunque el tiempo ha venido atemperando estas consideraciones. Eso no quiere decir que hoy el debate y las desavenencias no sigan vigentes, ya que eso de la IA sigue siendo fuente de altercados, malentendidos y controversias, tanto en el ámbito científico como en la percepción pública, debido a la misma carga semántica y las expectativas depositadas por los humanos en el calificativo de inteligencia o inteligente.

Más allá de pendencias, interesante es que desde dicha Conferencia el estudio de la IA se bifurcó en dos grandes corrientes: el conexionismo —enfocado en las redes neuronales y el aprendizaje basado en datos— y el cognitivismo —dirigido hacia la representación del conocimiento, el razonamiento y la lógica, buscando imitar la manera en que los humanos piensan y resuelven problemas—. Al inicio fueron los segundos los que dieron de que hablar: dieron paso a productos que preludiaban grandes avances con sus sistemas expertos —efectuados por expertos humanos que generaban reglas para que los programas las usaran para solucionar tareas como el diagnóstico médico o la toma de decisiones en determinados sectores como el energético, por ejemplo—, que deslumbraron en los años setenta a los interesados en ese emergente campo científico. Con el tiempo, la IA, cargada de fases de optimismo y de estancamiento, ha llegado hasta nuestros días arrastrando dos conceptos claves que identifican a cada una de esas corrientes: lo simbólico y lo subsimbólico.

El cognitivismo es un enfoque sobre todo simbólico, por lo que la cognición humana se explica a través de la manipulación de símbolos y representaciones mentales, postulando la existencia de un nivel simbólico irreductible que se sitúa por encima del nivel físico o neurobiológico. Los símbolos, en este contexto, son ítems semánticos sobre los que se realizan operaciones computacionales, y la mente se concibe como una máquina simbólica capaz de procesar información de manera representacional y formal.

Por su parte, el enfoque conexionista es subsimbólico, que quiere decir que se enfoca en la representación distribuida del conocimiento en redes neuronales, en lugar de utilizar símbolos y reglas explícitas como se hace en la IA simbólica. En la IA conexionista, el conocimiento se representa a través de patrones que sirven de disparadores o activadores en las redes neuronales, lo que puede hacer que sea más complicado o difícil de interpretar y explicar en comparación con la IA simbólica, que usa símbolos y reglas para representar el conocimiento de manera más explícita y transparente.

Hoy día se puede decir que el conexionismo de ser el negrito en el arroz en los años setenta del siglo pasado, ha ganado un peso significativo y han transformado profundamente el campo de la IA. El conexionismo ha tenido un efecto notable al ofrecer modelos que simulan cómo el cerebro procesa la información mediante redes neuronales artificiales, lo que ha desembocado en avances importantes en el llamado aprendizaje automático, el reconocimiento de patrones y el procesamiento del lenguaje natural, que son los campos más prometedores de la IA en la actualidad. Es así como el enfoque subsimbólico, inspirado en la neurofisiología, ha venido a dotar de soportes cercanos a la realidad biológica de la cognición que los modelos simbólicos tradicionales. Pero como la historia de la IA ha demostrado, no se puede dar por muerto el cognitivismo —que no ha desaparecido ni ha sido completamente reemplazado— y lo simbólico, ya que amos conviven en la actualidad y como ejemplo tenemos que la psicología cognitiva sigue integrando elementos de ambos enfoques, aunque la fuerza del conexionismo no se puede pasar por alto.

Pero lo importante es entender que una disciplina que fue lanzada oficialmente en 1956, en donde estaban definidas dos corrientes claras sigan vigentes hoy día, que esa división filosófica que se produjo en los primeros días de la investigación sobre IA —la simbólica y la subsimbólica— sigan todavía siendo piedra angular del desarrollo de un campo que para unos está más sólido que nunca, y para otros se está resquebrajando y empieza a dar muestras de entrar en una nueva fase de declive.

A pesar del auge de lo subsimbólico, de que parece ser la vía más robusta para futuros éxitos de la IA, todavía suenan los ecos defendidos por los simbólicos: para que los equipos sean inteligentes, no es necesario construir unos programas que imiten el cerebro, sino que es posible capturar totalmente la inteligencia general con un programa apropiado de procesamiento de símbolos y ya está el poder de cálculo y las toneladas de datos para que eso pueda ser realidad. Pero una cosa es clara: si bien los investigadores implicados en el presente en la IA consideran que están libres de ataduras para evaluar lo que son los derroteros de la IA, será la observación posterior, la que se dé en unas cuantas décadas, la que podrá discernir quien tiene la razón, en dónde falló lo que hoy se pone en marcha y qué acontecimientos fueron los más sólidos.

@tulios41

 Publicado en La Jornada Morelos 

La digitalización en México

La última Encuesta Nacional sobre Disponibilidad y Uso de Tecnologías de la Información en los Hogares (ENDUTIH) 2024 del INEGI revela un panorama contradictorio. Por un lado, el país avanza a pasos firmes en la senda de la conectividad, pero por otro, el aprovechamiento productivo de la red sigue siendo un desafío pendiente, una promesa incumplida que se queda en el aire como lo que acontece con los buenos deseos. Por un lado es innegable que de forma constante se ha ido avanzando en materia de conectividad, pero también es una realidad que el uso de la red para impulsar al pequeño y mediano empresariado sigue siendo otro pendiente, que como es costumbre se dirá que es algo que se subsanará muy pronto, con las nuevas políticas que impulsará el gobierno en turno. 

En la medida que las zonas urbanas han alcanzado la mayor penetración en materia de conexión, los porcentajes bajos de usuarios se sienten en el terreno rural, que cuentan con el 68.5% de penetración de internet. En tal sentido, si bien en México en este momento tenemos un poco más de 100 millones de personas conectadas a internet, las cuales con distintas intensidades y tiempos de uso se definen como usuarias de la red y de lo digital, existe un sector que todavía no tiene esa posibilidad. En suma, el 83.1% de la población de seis años ya está conectada en nuestro país y se mantiene una penetración anual de 3.3%.

De acuerdo con el Digital Report 2025, los cinco primeros países del orbe que tienen las mayores tasas de conexión a internet son Dinamarca, Países Bajos, Noruega, Arabia Saudita y Suiza que alcanzan o superan el 99% de la población. En lo que se refiere a nuestra región latinoamericana las cinco naciones que tienen mayor conexión son Bahamas (94.3%),  Antigua y Barbuda (92.3%), Chile (92.0%), Uruguay (91.0%) y Costa Rica (90.2%). México se encuentra en el séptimo puesto.

Dicho eso, también debe considerarse que es prácticamente imposible que una nación logre que el total de su población se conecte a internet, no solo porque a veces puede resultar complicado franquear los impedimentos geográficos y tecnológicos para llevar la conexión a grupos humanos aislados, sino también porque existen factores culturales, al grado que comunidades o individuos pueden rechazar la tecnología por motivos culturales o simples concepciones ideológicas; y también están las limitaciones en el acceso por aspectos de control político, como acontece con países con censura. Sin embargo, en materia de brechas, pues, no es lo mismo las que se definen por voluntad propia y las que son impuestas por la carencia de políticas e infraestructura tecnológica. Y lo referimos porque aproximadamente 10% de la población en nuestro país no usa internet por falta de conocimientos, y el 18.8% no lo hace por razones como inaccesibilidad económica o falta de contenido relevante.

Un dato que define los hábitos de conexión y consumo de internet tiene que ver desde dónde se conectan las personas, que lo hacen mayoritariamente desde el teléfono celular. Lo que sigue siendo ya una especie de marca de calidad de los mismos usuarios de las nuevas tecnologías, esto porque no se puede soslayar que existe una clara disparidad en el acceso a computadoras, con apenas 43.9% de los hogares que disponen de algún equipo de cómputo, o lo que es lo mismo: solo el 36% de la población usa computadoras, una cifra muy baja y reflejo no solo de la preferencia por conectarse vía dispositivos móviles, sino también evidencia de usuarios con una mala gestión, o de calidad en el uso de las nuevas tecnologías, ya que por más multitareas que puedan ser una persona la verdad es que un smartphone tiene limitaciones respecto a la versatilidad de tareas que se pueden llevar a cabo en una computadora.

Esa penetración y peso de los smartphones se refleja en que el 97.2% de las personas conectadas a internet lo hagan gracias a tales dispositivos. Ello no solo refiere de una inclinación por el uso del móvil como un metamedio de conexión y comunicación, sino también de desafíos en términos de ciberseguridad y de la misma alfabetización tecnológica que es precaria. Celulares y edad van junto con pegado: no extraña que los jóvenes de 18 a 24 años lideren con un 96.7% de adopción de celulares.

En términos generales, se puede decir que los usos productivos de internet y de la digitalización nacional son una realidad: domina el uso recreativo (interacción, redes sociales, entretenimiento) frente a actividades como banca en línea (27.3%) o educación. Esto refleja una adopción superficial de dichos insumos tecnológicos. El bajo uso de computadoras —ya señalado y que vale la pena recalcar— (36%) y el acceso limitado en sitios públicos sugieren una dependencia excesiva de smartphones, lo que puede limitar tareas complejas o profesionales. En términos generales hay una precaria alfabetización digital reflejada en la falta de habilidades tecnológicas, que se tornan en una barrera clave, especialmente entre adultos mayores y poblaciones rurales, lo que perpetúa la exclusión digital. Por otra parte, el incremento del uso de smartphones plantea desafíos en términos de seguridad digital y salud derivada del uso prolongado de este tipo de dispositivos móviles.

Pero no faltamos a la verdad al decir que la ENDUTIH se ha ido estancando. Hace falta que profundice en aspectos que han adquirido relevancia en los últimos tiempos. Por ejemplo, no se aborda el efecto de las nuevas tecnologías en educación, teletrabajo o cuestiones de emprendimiento, lo que limita su utilidad para diseñar políticas públicas específicas. De igual manera, no se exploran suficientemente las razones detrás del bajo uso de banca en línea o comercio electrónico, como la desconfianza o la falta de infraestructura financiera. Otra limitante es que si bien se incorporaron preguntas relativas a streaming y dispositivos inteligentes, la encuesta no aborda tecnologías emergentes como inteligencia artificial, internet de las cosas (IoT) o 5G, que también se consideran cruciales para la transformación digital.

En fin, que la ENDUTIH 2024 con sus claros y oscuros es una herramienta de auxilio, de conocimiento del mapa digital nacional, pero sí con limitaciones en su profundidad y alcance respecto a tecnologías emergentes y usos productivos. Asimismo, en el contexto del reciente día de internet y de la sociedad de la información, sus datos adquieren relevancia, pero también en el marco de una nefasta reforma de telecomunicaciones que ha puesto en marcha el gobierno actual.

@tulios41

Publicado en La Jornada Morelos


Telecomunicaciones amordazadas

Recientemente la presidenta en nuestro país envió al Senado una iniciativa de reforma de Telecomunicaciones y Radiodifusión, y ante las críticas a la misma por partidos de oposición, organizaciones de la sociedad civil, expertos en telecomunicaciones y académicos, que señalaron que la misma vulneraba derechos y afectaba la libertad de expresión, la presidenta decidió meter reversa y abrir un espacio para discutirla, para que las diversas partes interesadas participen y propongan modificaciones a la iniciativa, la cual puede aprobarse entre junio-julio del año que corre.

Un tema central de esa iniciativa de reforma, elaborada directamente por el titular de la Agencia de Transformación Digital y Telecomunicaciones (ATDT), es la regulación de internet. Por décadas, el Estado mexicano ha vigilado a los medios de comunicación a través de diversos mecanismos con el fin de evitar críticas en su contra. En el momento que internet se masificó, sobre todo cuando se hizo factible que ya no era necesario ser programador en HTML para generar contenidos en línea, fue cuando se multiplicaron espacios críticos al gobierno y con la llegada de las redes sociales se facilitó que cualquier opinión fuera fácil de difundir, lo que puso a funcionarios de gobiernos y políticos bajo un escrutinio público, en donde opinar y publicar no requería de pasar por jefes de redacción y gatekeepers, lo que también abrió la puerta a la publicación de contenidos cuestionables y a ciberdelitos, de lo que se valieron gobiernos para que al mismo tiempo que se atendía tales aspectos meter en el mismo saco la regulación de plataformas y redes digitales, afectando derechos de libertad de expresión y acceso a la información.

En nuestra nación la oposición a la regulación de internet se ha expresado en diversos momentos y geografías, ya que lo mismo a escala federal como estatal diversos gobiernos han intentado controlar y/o regular internet. Para ilustrar un caso, recordemos que la reforma de telecomunicaciones de 2014 fue criticada entre otras cosas por intentar controlar la red y carecer de transparencia en su implementación. Pero como han referido varios especialistas en telecomunicaciones, si comparamos la reforma de 2014 con la que hoy se propone, aquella se queda muy corta en el énfasis autoritario respecto a la actual, que podría conducir al ciberespacio a vivir situaciones similares a las que enfrentan regímenes no democráticos como Venezuela o Nicaragua.

En 2014 estudiantes aglutinados en el movimiento #YoSoy132 arengaba en contra de la reforma a las telecomunicaciones, aunque ahora ya no se ve el puño en alto de los otrora cabezas visibles de ese movimiento porque están incrustados en televisoras privadas y el aparato político y administrativo oficialista. Pasa algo similar con el hoy titular de la ATDT, José Peña Merino que en su momento cuestionó varios aspectos de la reforma en telecomunicaciones de 2014, cuando desde la otrora Data Cívica se declaraba devoto del uso de datos y temas de derechos humanos y transparencia. Lo mismo se ve en varios de sus compinches, otrora defensores de la libertad de expresión, de las discusiones abiertas y públicas de las reformas y leyes de telecomunicaciones —cuando sus arrebatos juveniles los hicieron fervorosos defensores de la transparencia y hasta de querer dar vida a partidos piratas—, pero ahora como oficialistas VIP nadan de muertitos y sufren de amnesia radical.

Más allá de la discusión por venir sobre la reforma en las telecomunicaciones, vale la pena referir que la iniciativa de marras culmina con el proceso para acabar con el IFT —uno de los aspectos positivos de la Reforma de 2014— como órgano autónomo de regulación de las telecomunicaciones, oficializa que sus funciones pasan a la ATDT para centralizar y controlar medios y telecomunicaciones, para poner fin, de facto, a contrapesos institucionales y la autonomía en la regulación del sector. El ATDT se llena de poder: puede incluso autorregularse, crear sus propias normas, amén de concentrar más atribuciones que el ya extinto IFT. Establecerá la reglas para otorgar concesiones, regular el espacio radioeléctrico, desplegar el acceso a infraestructura digital, elaborar las políticas de telecomunicaciones y radiodifusión, normar las plataformas de internet, más lo que se vaya acumulando para satisfacer a ese insaciable cíclope. Por si no fuera suficiente, ante la ausencia de un órgano colegiado, con comisionados, para la toma de decisiones, las mismas recaerán en José Merino, que tendrá un poder que ni en sus mejores devaneos mentales él se imaginó tener cuando se reunía con su panda de amigos ciberlibertarios promotores de la radicalidad libre.

Vale la pena recordar a Andrew Arato, para ayudar a contextualizar la discusión que se avecina sobre esta reforma en telecomunicaciones. Él ha establecido dos momentos del populismo: uno, cuando está en el gobierno, etapa en donde no tiene el poder absoluto y debe negociar con sus contrapartes partidarias para sacar adelante sus iniciativas; el segundo es cuando es el gobierno, momento en que el populismo consolida su poder, barre con las instituciones democráticas y establece un control hegemónico; en esta etapa cualquier consulta sirve únicamente para validar las determinaciones del poder. Además, siguiendo a Arato, cuando un Estado tiene control absoluto sobre todos los aspectos del gobierno y sociedad —Suprema Corte, tribunales electorales, supresión de organismos autónomos y de cualquier contrapeso…—, no necesita recurrir a la violencia. La mera existencia de ese poder omnímodo y la ausencia de mecanismos para desafiarlo son suficientes para asegurar obediencia y conformismo, creando una atmósfera de autocensura y aquiescencia sin necesidad de represión activa y visible. En algún momento ese poder se acabará, pero en México el actual populismo autoritario lleva poco tiempo y goza de respaldo ciudadano.

Por eso, la ley no se modificará y no se incorporarán los puntos de vista de especialistas y de los partidos de oposición, o mejor dicho sólo se maquillará; si no se aprendió con las discusiones y consulta sobre la reforma judicial es que se peca de voluntarismo o ingenuidad. Como según el oficialismo ellos son la única «representación del pueblo» y encarnación del Estado, pueden hacer lo que se les antoje y darse el lujo de abrir espacios de discusión para repartir atole.

Como ejemplo de que la reforma en telecomunicaciones está en marcha, recientemente se aprobó sin estridencias ni gran molestia la Llave MX, un nefasto sistema de identificación digital implementado por el gobierno y difundido como la quintaesencia para agilizar trámites, servicios y programas sociales a través de plataformas digitales. Esa abominación es la posibilidad de devenir en recurso de vigilancia masiva por parte del gobierno, al concentrar una gran cantidad de datos personales de millones de ciudadanos, que lo mismo puede servir para fines electorales que para perseguir opositores y gente crítica al gobierno. Este es solo el inicio del caminar de la ATDT, un Juggernau alimentado con pura ivermectina.

@tulios41

Publicado en La Jornada Morelos

La creación de éxitos

En el primer lustro de la primera década del siglo XXI leí un artículo en Wired de Chris Anderson en donde lanzó su concepto de «larga cola» (o long tail), el cual sonaba estupendamente. Eran los tiempos en que todavía a uno le quedaba un resabio ilusorio de que el mundo digital aún era camino para igualar cultural y socialmente, e imaginarse en que la red era una avenida para las cuestiones utópicas en el campo artístico y paliar las penurias y precariedades del sector artístico. Para Anderson, internet reducía los costos de distribución y almacenamiento, lo que permitía que una mayor diversidad de productos culturales, incluidos los de nicho, encontraran su público y ensanchaba el mercado para múltiples productos culturales.

En el caso del terreno musical, Anderson sugería que artistas menos conocidos podían prosperar al llegar a audiencias específicas, a personas enemigas de lo comercial o el mainstream, generando una economía basada en muchos «microhits» y no dependía exclusivamente de los grandes éxitos masivos. Debo decir que como amante de la música eso sonaba espléndido, pero también le parecía estupendo a las tribus de músicos que a lo largo y ancho del planeta tenían propuestas musicales tan ricas y diversas.

Para Anderson, las múltiples plataformas digitales que se abrían camino en ese entonces, podían ofrecer un catálogo prácticamente ilimitado, a diferencia de las tiendas físicas con espacio restringido. En la música, eso implicaba que plataformas de streaming como Spotify o YouTube, por ejemplo, permitirían a artistas independientes o de nicho competir con las grandes estrellas, ya que los consumidores tendrían acceso a una variedad casi infinita de opciones, y se toparían con música y artistas que ni se les había pasado por la mente que existieran. Anderson argumentaba que la suma de las ventas o streams de esos productos de nicho podría igualar o superar los ingresos generados por los grandes éxitos (la «cabeza» de la distribución), democratizando el mercado y permitiendo que el mérito artístico prevaleciera.

A pesar de lo bonito que se escuchaba, la sucia realidad estaba ahí para desmentir las buenas intenciones. Lo cierto es que si bien es cierto que las plataformas de streaming ofrecen un catálogo extenso, la atención de los consumidores al final tiende a concentrarse en un número reducido de artistas populares. El 1% de los artistas más populares genera aproximadamente el 90% de todas las reproducciones en streaming. Esto significa que de los millones de artistas en plataformas como Spotify, solo una pequeña élite concentra la gran mayoría del consumo musical, de tal manera que 1.6 millones de artistas lanzan música en servicios de streaming en un año, pero nueve de cada diez canciones reproducidas son creadas por solo 16,000 artistas o lo que es lo mismo: solo el 1% de los artistas. (shre.ink/xYOl) Esta extrema concentración supera con creces el llamado «principio de Pareto», de su regla 80/20, que en este caso sería que el 20% concentraría el 80%, ya que en el streaming musical la distribución es más bien 90/1. Las preferencias musicales y el mercado de música reflejan, también, la manera en que se distribuye la riqueza a escala planetaria y en los mismos países.

Nick Srnicek había referido en su Capitalismo de plataforma, que el capitalismo digital opera bajo el principio de que el ganador se lleva todo, pero por lo que se ve eso se reproduce también dentro de las plataformas, de manera que hay pocos músicos que se llevan todo, como en las plataformas pocos usuarios tienen más seguidores o sus videos tienen más likes. Es decir, la democracia en la oferta de plataformas sí existe pero la igualdad dentro de las mismas ya es harina de otro costal.

La democratización económica prometida por la larga cola no se ha materializado, o se ha logrado de manera desigual ya que si bien ofrece que todos puedan participar en una plataforma, la mayoría de los ingresos sólo van a parar a artistas de grandes sellos discográficos y superestrellas, mientras que los artistas independientes o de nicho, los de la «cola» al final terminan en eso: en la cola y recibiendo pagos insignificantes por stream (por ejemplo, Spotify paga entre 0.003 dólares y 0.005 dólares por reproducción) (shre.ink/xYOB). Además, en el caso de Spotify el 90% de los ingresos de la industria discográfica procede del 10 por ciento de las canciones. Esto dificulta que artistas menos conocidos vivan de su música, contradiciendo la idea de que los microhits generarían una prosperidad generalizada.

Hoy sabemos que a Anderson presa del entusiasmo se le fue un poco la boca: sobreestimo la demanda, asumiendo que los consumidores buscarían activamente productos de nicho, pero en la práctica, la conveniencia y los algoritmos han canalizado a muchos hacia los grandes éxitos. Además, que cómo buenos primates que somos nos encanta ser parte de la manada, entre más grande sea el grupo que escucha lo mismo que uno más a gusto nos sentimos. Aunque es cierto que Anderson estableció su «ley» antes del auge del streaming y los algoritmos de recomendación, que pusieron de cabeza las dinámicas de consumo. Lo que pintaba Anderson como una ley digital, al final terminó en una ilusión.

Quien complementa esa visión de Anderson es La fábrica de canciones: cómo se hacen los hits de John Seabrook, quien explora el proceso detrás de la creación de los éxitos en la música pop, revelando cómo desde los años setenta del siglo pasado la industria musical ha evolucionado hacia un sistema altamente industrializado y basado en métodos, y automatismos, para producir canciones diseñadas específicamente para devenir populares y ser rentables. Seabrook analiza cómo un selecto grupo de productores, compositores y equipos especializados, han usado técnicas estandarizadas, estructuras predecibles y ganchos pegajosos, apoyados por tecnologías y datos, para fabricar hits que dominan las listas de éxitos.

El libro dibuja la transición desde una creación musical más orgánica y artística hacia un modelo de producción en masa, donde la colaboración entre múltiples profesionales, el uso de algoritmos y la influencia de las plataformas digitales juegan un papel crucial, a menudo por encima del talento individual de los artistas. De esa manera, una canción exitosa para ser tal tiene que estar plagada de hooks, de pasajes o frases pegadizas, que se elaboran con minuciosidad con el objetivo de activar en el cerebro humano una sensación de placer al escuchar la melodía, el ritmo y la misma repetición.

Según la idea de Chris Anderson los hits eran resultado de la escasez de la oferta, pero lo que ha sucedido es lo contrario: ante la avalancha de música que facilitan efectuar las nuevas tecnologías, la gente ha buscado asideros sonoros de consumo masivo, ya que de lo contrario se siente extraviado en las toneladas de propuestas. Pero a pesar de las buenas intenciones y la propuesta igualitaria de la larga cola, lo cierto es que la aparición y masificación de los servicios de streaming no han servido para hacerle la vida más asequible a millones de músicos, sino para reproducir la precariedad.

@tulios41

Publicado en La Jornada Morelos

 

Trump en cruzada antiuniversitaria

martes, 22 de abril de 2025

Desde el pasado mes de marzo la administración Trump empezó su arremetida contra universidades como las de Columbia, Princeton, Cornell, Northwestern, Florida, Harvard, Yale, Stanford y varias otras. Esta situación se radicalizó durante las protestas universitarias contra la guerra en Gaza en la Universidad de Columbia, que le dio pie a Trump para señalar que dicha institución educativa era semillero de radicalismo izquierdista, de antisemitismo disfrazado de activismo. Trump indicó que si esa universidad quería seguir recibiendo las contribuciones federales debía efectuar cambios radicales en sus contenidos educativos y políticas.

Luego Trump pasó a imponer la retención de fondos a las universidades que han sido escenario no solo de las protestas contra el conflicto armado entre Israel y Hamás, sino contra todas las que impulsan políticas de diversidad, igualdad e inclusión. La respuesta de las universidades ha sido desigual, unas han dejado mucho que desear, otras se han movido entre la tibieza, la cautela o otras de plano prefieren hacer como que nada ha sucedido. Mientras las universidades públicas, que dependen exclusivamente de financiamiento público, han optado por mantener una postura de «neutralidad» institucional, argumentando que no pueden tomar posiciones políticas explícitas con el fin de no comprometer su credibilidad académica ni su mismo financiamiento. Esto refleja un frágil compromiso no solo con la libertad académica, la libertad en general y su propia autonomía, sino también con los principios fundamentales de la democracia estadounidense.

Varias universidades se han conformado en una red de defensa común, lo cierto es que su fortaleza depende mucho del soporte económico con que cuenten, lo que se ha evidenciado con la postura de la Universidad de Harvard, que es la más firme en rechazar los condicionamientos y atropellos de Trump. Pero eso está respaldado por una tradición de autonomía académica, de defensa de la libertad de cátedra, de su liderazgo intelectual a escala mundial, de su fuerte compromiso con la diversidad y la inclusión, del respaldo de egresados y plantilla académica influyente en el campo económico y político. Pero, además de eso, Harvard cuenta con un enorme fondo patrimonial que supera los 50 mil millones de dólares, lo que le da un margen de maniobra que otras instituciones no pueden tener ante las actuales presiones políticas que sufren.

Los ataques de Donald Trump hay que ubicarlos como parte de una estrategia más amplia de una guerra cultural de la derecha estadounidense, donde presenta a las instituciones académicas como enemigas de los valores tradicionales, conservadores y patrióticos. Es una embestida que reflejan una narrativa política que viene de años atrás y busca desacreditar todo lo que se percibe como «élite liberal» o que suene a «progresismo institucionalizado». Lo paradójico es que varios de los principales asesores de Trump y políticos republicanos, e incluso empresarios, que arremeten contra las instituciones de educación superior estudiaron en alguna de ellas.

Para Trump las universidades son centros de adoctrinamiento izquierdista, donde se promueve el marxismo cultural, o la ideología woke y una visión negativa de Estados Unidos. Sus ataques a las universidades en el lenguaje de Trump es una «guerra contra la progresía», ya que considera que las universidades de Estados Unidos han dejado de ser espacios de pensamiento libre para convertirse en fábricas de radicalismo progresista expresados en sus estudios de género, raza y diversidad. Para frenar eso quiere imponer a los centros educativos universitarios que modifiquen sus políticas: cambiar sus planes y contenidos de estudio —por ejemplo, demanda modificaciones en las maneras de enseñar la historia intentando reescribir la misma y borrar teorías e interpretaciones de ciertas etapas históricas para acomodarlas a las exégesis de derecha—, poner punto final a determinados programas que vulneran la democracia y/o pluralidad, eliminar carreras «no rentables» o consideradas ideológicas o sin perspectivas de tener demanda del mercado laboral, como es el caso de las humanidades, estudios de género… y priorizar la formación en disciplinas «no ideológicas» como ciencia, tecnología, ingeniería y matemáticas (STEM).

La situación ha llegado a tal extremo que varios académicos han decidido abandonar Estados Unidos. Investigadores como Timothy Snyder, Marci Shore o John Stanley, por ejemplo, han optado por dejar la universidad de Yale y trasladarse a vivir a Toronto. La cacería contra académicos es tal que se cancelan visas de trabajo, el FBI allana sus hogares para incautarles sus equipos de cómputo y otros materiales, todo ello con el silencio y/o complicidad de las mismas autoridades universitarias; esta cuestión también ha alcanzado a cientos de estudiantes que han visto cómo les cancelan sus visas y temen una posible deportación (shre.ink/MdYp).

Pero esto no es inédito en Estados Unidos: persecuciones similares se pusieron en marcha en otros momentos: por ejemplo, en los años cincuenta del siglo pasado en la llamada era McCarthy se impuso, en plena guerra fría, una cacería de brujas contra los comunistas en todos los ámbitos sociales —como lo retrató Philip Roth en Me casé con un comunista—, lo que se tradujo en el llamado Terror Rojo traducido en que profesores universitarios fueran investigados, humillados públicamente, despedidos o censurados por tener simpatías comunistas, por haber firmado manifiestos o simplemente por negarse a delatar a colegas. Las mismas universidades fueron presionadas para investirse de patrióticas y despedir a quienes no se alinearan con los valores estadounidenses.

Sin embargo, a pesar de que cada cierto tiempo las universidades en ese país han sufrido embates del poder, también es real que el caso más extremo es el que ahora impulsa Donald Trump porque su narrativa política va de la mano con propuestas legislativas y una batería de órdenes ejecutivas coordinadas desde el poder federal contra las universidades. Esto se da en un momento en que los contrapesos se erosionan, cuando un sector de la sociedad estadounidense también ve a la educación superior como una amenaza ideológica y el resentimiento que existe contra las universidades privadas justifica que se repriman.

La fortaleza de la democracia tradicionalmente se ha medido por su longevidad y por la solidez de sus mecanismos de equilibrio de poder, características que supuestamente distinguían a Estados Unidos. Sin embargo, los acontecimientos recientes en dicho país con sus universidades revelan una realidad: las instituciones, por robustas que sean, no son invulnerables. La verdadera salvaguarda de un sistema democrático no radica solo en una robusta ciudadanía, sino también en el compromiso de sus políticos con los valores democráticos. Cuando esos valores se debilitan, incluso democracias históricamente estables como la estadounidense se fragilizan ante liderazgos con tendencias autocráticas como el de Donald Trump.

* @tulios41

Publicado en La Jornada Morelos

La censura china

La censura se propaga por la red, se expresa con diversas técnicas que usan tanto gobiernos como empresas con la finalidad de cercenar el acceso a múltiples contenidos. Se implementan bloqueo de direcciones IP, se impide el acceso a determinados sitios web o servidores; se alteran registros DNS, redirigiendo las solicitudes de conexión a páginas falsas o inaccesibles; se detecta e inspeccionan paquetes (DPI), filtrando tipos específicos de tráfico en la red. Casos extremos son los que producen apagones de internet en determinados momentos de protestas o elecciones; se acuden o restringen de manera selectiva determinados sitios con el objetivo de impedir la circulación de información. En el guion original que dio vida a la red esto no estaba contemplado; China es un caso que ilustra lo errado que estaba el libreto.

China es una de las naciones que implementa uno de los esquemas más rigurosos de censura, en donde esta cohabita exitosamente con el comercio. Pero en el pasado la idea que se tenía era otra, se consideraba algo antitético: censura y libre mercado eran como el agua y el aceite. Durante las últimas dos décadas del siglo XX se pensó que el comercio, el libre mercado, eran la llave que abriría la puerta de la censura de países como China. Cuando la devoción estaba puesta en la libre circulación de mercancías, se pensaba que era suficiente una dosis de diplomacia para hacer que las naciones terminaran aceptando las bondades de la democracia liberal.

Desde los años setenta Deng Xiaoping comenzó a abrir la economía China. En la última década del siglo XX China se integró con paso firme a la economía global y muchas empresas estadunidenses empezaron a fabricar sus productos y mercancías en esa nación asiática. China ofrecía mano de obra abundante y a costo bajo, ideal para empresas que querían reducir costos de producción y tener mayores ganancias; el gobierno chino implementó zonas económicas especiales, con incentivos fiscales y subsidios a la exportación; era el mejor momento de la globalización y el gobierno chino desarrolló cadenas de suministro globales y mejoras en la logística internacional que facilitaron que las empresas estadounidenses trasladaran su producción a China; al mismo tiempo, esa nación puso en marcha tanto una infraestructura industrial como cadenas de suministro completas que permitían producir desde componentes básicos hasta productos finales sofisticados y con una mano de obra que estaba en constante capacitación —proporcionada en muchos casos por las mismas empresas de Estados Unidos—.

Estados Unidos alentaba la fiebre por el libre mercado, creyendo que eso sería bueno para la buena salud de la democracia global. La idea de que se consolidara una clase media era importante, ya que demandaría derechos y libertades, como aconteció en su momento en países como Taiwán o Corea del Sur. Un ejemplo de esa percepción fue Bill Clinton, quien era partidario de que China se integrara al comercio mundial porque «la interdependencia cada vez mayor tendría un efecto liberalizador en China. […] Las computadoras e internet, las máquinas de fax y las fotocopiadoras, los módems y los satélites aumentan todos ellos la exposición a personas, a ideas y al mundo más allá de las fronteras de China» (www.iatp.org). Incluso el mismo Clinton creyó que era importante que China se incorporara a la OMC; en una ocasión respondió con sorna a una pregunta de un periodista sobre la censura China y su interés por controlar internet, a lo que respondió: cualquier intento de controlar internet por parte de China sería como «intentar clavar gelatina en la pared».

Pues al final resulta que si supieron como clavar, y bien, gelatina y engrudo en la pared. China demostró que la censura se podía hermanar perfectamente con sólidas cadenas de valor y hacer de ese país una solvente economía. En Estados Unidos demócratas y republicanos de fines del siglo XX consideraban que en un mundo más abierto e interconectado, la democracia y las ideas liberales se extenderían a los estados autocráticos. Pero sucedió al revés: la autocracia y el iliberalismo fueron los que se propagaron en los países democráticos y de paso hicieron añicos las ideas de la teoría de la modernización que databan de posguerra e indicaban que el comercio era la que llevaría la democracia a los países autoritarios.

En el caso de la censura en China, ese país se incorporó a internet a fines de los años ochenta y al inicio, como en muchos países, solo fue un medio de comunicación para una elite, para el sector académico. Sin embargo, en 1998 erigió su proyecto Escudo Dorado (Gran Cortafuegos), un sistema multicapas implementado por el gobierno chino que aplica tanto la censura como el control de la información en internet. Es capaz de usar la denominada inspección profunda de paquetes (DPI), con la finalidad de identificar y bloquear en tiempo real términos prohibidos como «Tiananmén», «democracia», «derechos humanos» o críticas al Partido Comunista Chino; lo novedoso es que permite el uso de VPNs siempre y cuando sean las aprobadas por el Estados y únicamente pueden usarlas las empresas y que, por tanto, están monitoreadas. Además, las grandes plataformas chinas como WeChat, Weibo o Baidu están obligadas a cumplir con severas normas de censura, de manera que en sus algoritmos está eliminar contenidos considerados «inapropiados» y monitorear usuarios, quienes deben registrarse con su identidad real; al mismo tiempo el Ministerio de Seguridad Pública apoyándose en inteligencia artificial (IA) escudriña datos y rastrea actividades en línea, identifica disidentes y disuade comportamientos considerados subversivos.

Pero China también sabe dar zanahorias: da acceso a múltiples productos culturales a los usuarios jóvenes de las plataformas digitales, de manera que se hace de la vista gorda para que consuman entretenimiento y productos protegidos por derechos de autor de manera que se intercambia o descarga software y aplicaciones diversas en donde se combina lo legal e ilegal. Es cierto que el gobierno chino ha fortalecido su sistema de protección de derechos de autor en las últimas décadas, en parte derivado de sus compromisos internacionales con la OMC y también para apoyar su economía digital. Sin embargo, dosifica lo legal e ilegal y prefiere que los jóvenes se entretengan en el ciberespacio a que cuestionen a los dirigentes políticos o el régimen.

China ha demostrado que es posible combinar crecimiento económico, libre comercio y tecnología de punta sin liberalización política, lo que ha inspirado a otros regímenes autoritarios a aprovechar la tecnología para consolidar el control estatal. Este modelo desafía la noción de que la globalización, hoy en día debilitada, conduce inevitablemente a sociedades más abiertas. Resulta irónico que China, gobernada por un partido comunista autoritario, se haya convertido en uno de los principales defensores del libre comercio, mientras que Estados Unidos, una de las cunas del capitalismo y ahora con un líder con tendencias autoritarias, haya adoptado un enfoque proteccionista. En el fondo eso refleja el temor de Estados Unidos de perder su liderazgo en industrias clave como la inteligencia artificial, 5G y automóviles eléctricos frente al avance asiático.

* @tulios41 

Publicado en La Jornada Morelos

Spotify en formato inteligente

Spotify es sinónimo de música, su nombre remite a una startup sueca creada en 2006, es en la actualidad una sociedad anónima que cotiza en bolsa, con un valor estimado en 25 mil millones de dólares. En 2023, Spotify reportó ingresos anuales de 14,000 millones de dólares, y su patrimonio neto es de unos 2,670 millones de dólares, según Statista. Pero si consideramos su crecimiento hasta el año pasado, con 640 millones de usuarios activos mensuales, de los cuales 252 son premium, y partiendo del múltiplo típico de valoración de las empresas tecnológicas (entre 5 y 10 veces sus ingresos anuales), se puede inferir que en la actualidad su valor está entre 70,000 y 100,000 millones de dólares.

Nada mal para una empresa surgida en un país pequeño, donde se ha tenido una sólida carrera en la producción de artistas exitosos en el campo de la música pop. Esta empresa sueca domina un sector que era esperable lo encabezara una empresa estadounidense, pero sus 19 años de existencia demuestran que su fuerza no fue circunstancial. Actualmente Spotify intenta reforzar su músculo adoptando la tecnología de moda, la inteligencia artificial (IA).

Para unos es innecesaria la presencia de la IA en el campo musical e incluso dicen que no ha tenido relevancia en la música. Pero después de todo, la relación entre IA y música no es de ahora. Ya Alan Turing, que puede ser considerado uno de los padres de la IA, desarrolló en 1951 una máquina que generó tres melodías simples: la canción infantil Baa Va Black Sheep, la canción de Glenn Miller In the Mood y el himno de la selección británica God Save the King. La grabación fue efectuada por la BBC en el Computing Machine Laboratory de Manchester, pero se había extraviado y en 2016 algunos investigadores la recuperaron y dieron a conocer.

En el campo musical ha habido pioneros en investigar sobre los vasos comunicantes entre IA y música, uno destacado fue David Bowie, cuya trayectoria siempre estuvo ligada a la vanguardia, a la ciencia y la innovación como se refleja en su extraordinaria Space Oddity. A principios de los años noventa Bowie hizo alianza con el programador Ty Roberts, para crear un software llamado Verbasizer, capaz de generar de forma automática letras de canciones originales a partir de contenido textual.

En el caso de Spotify, fue en 2018 cuando abrió una unidad de investigación dedicada a desarrollar investigaciones científicas sobre el uso de la IA en el campo de la composición musical, el Creator Technology Research Lab. Esto fue una manera de sistematizar, o redondear el trabajo que venía efectuando con la IA desde 2015, cuando empezó a usarla para analizar los gustos musicales de sus usuarios y así ofrecerles contenido si no a la carta sí bastante personalizado.

En 2017 Spotify contrató a François Pachet, a quien nombró como director del centro de investigación de Spotify de París. Nacido a mediados de los años 1960, François Pachet es especialista en ingeniería computacional con estudios en universidades francesas, que desde hace varios años se ha dedicado a la investigación en el campo musical, el aprendizaje automático y la IA. De hecho Pachet fue nombrado en 1997 director de la Sony Computer Science Laboratory, un centro de investigación privado, financiado por la empresa japonesa Sony, también con sede en París y dedicado a experimentar con la materia sonora.

Durante su estancia en Sony Pachet creo varias tecnologías, pero su producto más destacable fue Flow Machine, un proyecto iniciado en 2012 que su objetivo era enseñar a las computadoras a crear composiciones musicales basadas en estilos concretos; el objetivo fue desarrollar una máquina capaz de aprender a tocar de forma autónoma, a partir de un proceso de aprendizaje (machine learning) con una serie de repertorios musicales existentes; de esto se derivó un programa para ser usado por cualquier músico llamado Flow Composer, que crea nuevos contenidos musicales a partir de dos elementos iniciales que se deben proporcionar a la IA: una selección de partituras musicales (melodías y acordes), que permiten al programa aprender un determinado estilo de composición musical; el segundo, una serie de piezas de audio que permiten a la máquina asociar texturas sonoras específicas con las partituras. De esa manera, con tales materiales, es como Flow Composer produce composiciones musicales originales y únicas, basadas en una serie de operaciones y elecciones que, sin embargo, son gestionadas por un operador humano.

De hecho poco antes de incorporarse a Spotify Pachet y su equipo ofrecieron una demostración de las capacidades creativas de Flow Machine, en la cual también participó el músico francés Benoît Carré para confeccionar una canción original, inspirada en la música de los Beatles. Benoît Carré proporcionó a Flow Machine una selección de 45 melodías de los Beatles que le sirvieran de inspiración y dio como resultado una canción original directamente influida por las melodías y sonidos del cuarteto de Liverpool, que recibió el nombre de Daddy's Car y se dio a conocer en YouTube (shre.ink/MvZY).

Con esos experimentos queda claro que las máquina sí consiguen producir secuencias sonoras a partir de partituras que se pueden considerar originales. Para varios eso implica un alivio ya que si bien se demuestra que las máquinas son capaces de dar vida a productos sonoros, pero es completamente distinto a que las máquinas puedan crear de forma independiente música lista para ser escuchada por los suscriptores de Spotify.

Pero más allá de Spotify, lo que no debe olvidarse es que las IA operan con patrones, sean lingüísticos o melódicos, con sonidos u oraciones, para posteriormente dar paso a composiciones nuevas o inéditas. En tal sentido no debería pensarse que un servicio de streaming no pudiera en el futuro generar exclusivamente melodías a la carta que le fueran solicitadas por los usuarios. Y parece que se camina hacia tal escenario. En 2016 Google lanzó el proyecto Magenta, dedicado a desarrollar algoritmos de aprendizaje profundo y aprendizaje por refuerzo para generar automáticamente no sólo contenidos musicales, sino también imágenes, dibujos y otros materiales; una tecnología que actualmente usan diversos artistas.

Lo cierto es que el rostro de la música en el futuro próximo no está escrito en las características técnicas de las nuevas tecnologías, pero su forma o consistencia se dará a partir de que melómanos, consumidores y ciudadanos sean capaces de participar de manera activa y se apropien creativamente de los instrumentos musicales que tendremos a nuestra disposición. En el caso de Spotify a pesar de que no han sido muy explícitos sobre el trabajo que llevan a cabo con la IA parece que su interés no está en transformarse en un productor musical automatizado. Pero para nadie es un secreto que las maneras en que las tecnologías musicales ingresan en las dinámicas sociales siempre están destinadas a reservar sorpresas y desenlaces inesperados.

* @tulios41

Publicado en La Jornada Morelos

El periodismo y la USAID

Desde la masificación de internet en la década de 1990, el periodismo ha enfrentado un declive sostenido, no tanto en términos de propuestas narrativas —que se han multiplicado— o de análisis, sino en su viabilidad económica. La disminución de tirajes y aparición de plataformas digitales fragmentaron la audiencia, generando una precarización creciente de las condiciones laborales de los periodistas. Este escenario ha repercutido negativamente en la calidad de la investigación periodística, una práctica que la llevan a cabo otras organizaciones que su función no es exclusivamente el periodismo. El entorno informativo marcado por la inmediatez y la saturación.

Desde hace años el periodismo independiente ha superado obstáculos financieros, ha sorteado las condiciones adversas mediante el apoyo económico de fundaciones. Entre los organismos que han desempeñado un rol significativo en el financiamiento de iniciativas periodísticas transnacionales destaca USAID (Agencia de Estados Unidos para el Desarrollo Internacional). El papel de la USAID se caracteriza por una dualidad y perspectivas disímbolas: mientras algunos académicos refieren que su labor constituye un aporte fundamental para el fortalecimiento de los sistemas democráticos, otros analistas argumentan que es un instrumento de influencia política, promueve los intereses estratégicos y la agenda hegemónica de Estados Unidos en el ámbito internacional.

En parte eso es cierto. La USAID fue creada en 1961 bajo la administración de John F. Kennedy como una herramienta esencial de su política exterior. Oficialmente su tarea era promover el desarrollo económico, la democracia y los derechos humanos en más de 100 países, canalizando recursos a ONGs, gobiernos y organismos internacionales. Sin embargo, desde el inicio su papel fue controvertido. En el contexto de la Guerra Fría, la USAID actuó como una interfaz de soft power, difundiendo los valores estadounidenses e influyendo en las sociedades para fortalecer los intereses geopolíticos de Washington. Al principio su interés estuvo en contener el avance del comunismo y reforzar a los aliados de ese país, especialmente en Latinoamérica. La ayuda humanitaria se combinaba con las labores de inteligencia e impulsando estrategias para consolidar la hegemonía estadounidense, lo que siempre generó críticas sobre la verdadera naturaleza de su labor.

Como ejemplo del papel de USAID está su colaboración con la CIA para influir en la política de varios países. En los golpes de Estado de Chile con Salvador Allende, o Guatemala con Jacobo Árbenz, USAID apoyó iniciativas que eran un complemento de los impulsados a escala política por Estados Unidos. En los años setenta del siglo pasado tuvo participación en lo que se conoció como la Operación Cóndor, de nefastos recuerdos en Latinoamérica.

Sin embargo, la USAID modificó su accionar con base en los vientos políticos, de manera que cuando se dio el derrumbe del Muro de Berlín y se dio el consecuente colapso y desaparición de la Unión Soviética, se lavó la cara y empezó a jugar un papel relevante en favor de la democracia. Empezó a apoyar iniciativas interesadas en impulsar la calidad democrática en la región, apoyó a organizaciones que impulsaban elecciones, combatían la corrupción, financió a ONGs interesadas en la protección de múltiples minorías: mujeres, grupos indígenas, personas LGBTQ+, salud sexual y reproductiva. Esa ha sido la etapa más destacable de USAID, con una perspectiva liberal impulsó proyectos democráticos. Con ello se apoyaron a organizaciones periodísticas de la región, que terminó por enriquecer la vida pública con un periodismo de calidad.

Una investigación reciente de Reuters (shre.ink/MNWg) ilustra el papel que jugaba ese organismo en el campo periodístico. En 2023 respaldó a más de 6,200 periodistas, 700 medios no estatales y 279 organizaciones de la sociedad civil relacionadas con el periodismo. En Latinoamérica diversos medios han sido apoyados en sus labores editoriales, de manera que esos fondos permitieron visibilizar luchas de colectivos, situaciones de violaciones de derechos humanos y demandas democráticas de diversos sectores sociales.

En Latinoamérica el siglo que corre ha sido un periodo en el cual los medios convencionales fueron arrinconados y desplazados por la tendencia digital: se desplomaron los ingresos publicitarios, se cancelaron ediciones en papel y varios medios quedaron a expensas de que su tráfico en línea les permitiera tener algo de ingreso. Al mismo tiempo, pusieron en marcha una serie de medidas para apuntalar sus espacios: unos optaron por cobrar por el acceso a sus contenidos; otros impulsaron la publicidad digital, que a pesar de ser menos rentable que la impresa es una fuente importante de ingresos; promovieron contenido patrocinado, colaboraron con empresas y promovieron productos o servicios; se vincularon a los gobiernos para promocionar sus políticas; algunos incluso para subsistir han acudido al crowdfunding.

La USAID apuntaló un sinfín de proyectos. En México, por ejemplo, destinó 6.6 millones de dólares en 2024 a organizaciones que promueven la transparencia a través del periodismo, cuestión que ahora seguramente será una labor que si bien no se suspenderá sí disminuirá el trabajo de las publicaciones y organizaciones que recibían tales apoyos. De esa manera, organizaciones civiles que su labor central no era el periodismo, terminaron por hacer un periodismo de investigación, que es algo que ya no hacen el grueso de medios por sus altos costos. El periodismo de investigación, requiere de viajes, de usar programas especiales, y caros, de cómputo y dedicar incluso meses para trabajar una historia. Es una tarea que ya no se ve mucho en medios de comunicación tradicionales. Por eso a menudo para hacerlo se depende del acceso a subvenciones de fundaciones.

Además, si bien no solo la USAID es la única organización que apoya las labores periodísticas, también es verdad que el financiamiento de las fundaciones estadounidenses no fluirá ya hacia Latinoamérica porque canalizarán sus recursos a apoyar proyectos en Estados Unidos, ya que el arribo de Trump ha dejado a muchos proyectos en ese país vulnerables y que ahora padecen la misma situación que sus pares latinoamericanas.

Para muestro entorno eso no significa la muerte del periodismo, ya que su práctica siempre ha sido una labor hasta cierto punto altruista. Es un ejercicio que incluso muchos llevan a cabo en condiciones adversas, por un amor a esa disciplina, pero sí es verdad que socavará la pluralidad y el número de investigaciones y contenidos.

Publicado en La Jornada Morelos

 
Creada por laeulalia basada en la denim de blogger.