Bifurcaciones de la inteligencia artificial

miércoles, 25 de junio de 2025

Desde que Thomas McCarthy no se le ocurriera un mejor término que inteligencia artificial (IA) para designar el nuevo campo científico y tecnológico que proponía a algunos de sus pares para desarrollar, la palabra pasó a convertirse en presa de malos entendidos, polémicas y que fueron como gasolina para incendiar discusiones, enfrascarse en disputas y debates, alterando puntos de vista de mentes que no concebían que se llamara inteligente a una máquina o a un software.

Lo cierto es que a inicios de los años cincuenta del siglo pasado, había un entusiasmo por las cuestiones computacionales, por lo menos había dos enfoques y calificativos para denominar el incipiente campo de estudio de las denominadas «máquinas pensantes», uno era la cibernética y el otro la teoría de autómatas, por lo que McCarthy consideró que ambos términos eran limitados para responder a lo que tenía en mente, para generar una nueva disciplina científica.

Por eso, McCarthy eligió el término IA por considerarlo más neutro y más global, lo que permitiría dar vida a un campo que abarcara todas las capacidades cognitivas humanas y que al mismo tiempo pudieran ser simuladas por máquinas, pero abierto a su estudio por parte de cualquier teoría o escuela de pensamiento. Y fue eso que llevó a McCarthy a desplegar su idea en la Conferencia de Dartmouth en 1956 y reunir a una pléyade de científicos, de lanzar oficialmente la IA como campo de investigación científica.

Lo que desembocó en reyertas y disputas fue que de inmediato surgieron quienes no aceptaron que se equipararan los procesos computacionales con la inteligencia humana, que se consideró un despropósito y un ninguneo del homo sapiens. No se podía comprender cómo se asociaban los procesos de IA con los biológicos propios de la mente humana, ya que eran completamente disímbolos, aunque el tiempo ha venido atemperando estas consideraciones. Eso no quiere decir que hoy el debate y las desavenencias no sigan vigentes, ya que eso de la IA sigue siendo fuente de altercados, malentendidos y controversias, tanto en el ámbito científico como en la percepción pública, debido a la misma carga semántica y las expectativas depositadas por los humanos en el calificativo de inteligencia o inteligente.

Más allá de pendencias, interesante es que desde dicha Conferencia el estudio de la IA se bifurcó en dos grandes corrientes: el conexionismo —enfocado en las redes neuronales y el aprendizaje basado en datos— y el cognitivismo —dirigido hacia la representación del conocimiento, el razonamiento y la lógica, buscando imitar la manera en que los humanos piensan y resuelven problemas—. Al inicio fueron los segundos los que dieron de que hablar: dieron paso a productos que preludiaban grandes avances con sus sistemas expertos —efectuados por expertos humanos que generaban reglas para que los programas las usaran para solucionar tareas como el diagnóstico médico o la toma de decisiones en determinados sectores como el energético, por ejemplo—, que deslumbraron en los años setenta a los interesados en ese emergente campo científico. Con el tiempo, la IA, cargada de fases de optimismo y de estancamiento, ha llegado hasta nuestros días arrastrando dos conceptos claves que identifican a cada una de esas corrientes: lo simbólico y lo subsimbólico.

El cognitivismo es un enfoque sobre todo simbólico, por lo que la cognición humana se explica a través de la manipulación de símbolos y representaciones mentales, postulando la existencia de un nivel simbólico irreductible que se sitúa por encima del nivel físico o neurobiológico. Los símbolos, en este contexto, son ítems semánticos sobre los que se realizan operaciones computacionales, y la mente se concibe como una máquina simbólica capaz de procesar información de manera representacional y formal.

Por su parte, el enfoque conexionista es subsimbólico, que quiere decir que se enfoca en la representación distribuida del conocimiento en redes neuronales, en lugar de utilizar símbolos y reglas explícitas como se hace en la IA simbólica. En la IA conexionista, el conocimiento se representa a través de patrones que sirven de disparadores o activadores en las redes neuronales, lo que puede hacer que sea más complicado o difícil de interpretar y explicar en comparación con la IA simbólica, que usa símbolos y reglas para representar el conocimiento de manera más explícita y transparente.

Hoy día se puede decir que el conexionismo de ser el negrito en el arroz en los años setenta del siglo pasado, ha ganado un peso significativo y han transformado profundamente el campo de la IA. El conexionismo ha tenido un efecto notable al ofrecer modelos que simulan cómo el cerebro procesa la información mediante redes neuronales artificiales, lo que ha desembocado en avances importantes en el llamado aprendizaje automático, el reconocimiento de patrones y el procesamiento del lenguaje natural, que son los campos más prometedores de la IA en la actualidad. Es así como el enfoque subsimbólico, inspirado en la neurofisiología, ha venido a dotar de soportes cercanos a la realidad biológica de la cognición que los modelos simbólicos tradicionales. Pero como la historia de la IA ha demostrado, no se puede dar por muerto el cognitivismo —que no ha desaparecido ni ha sido completamente reemplazado— y lo simbólico, ya que amos conviven en la actualidad y como ejemplo tenemos que la psicología cognitiva sigue integrando elementos de ambos enfoques, aunque la fuerza del conexionismo no se puede pasar por alto.

Pero lo importante es entender que una disciplina que fue lanzada oficialmente en 1956, en donde estaban definidas dos corrientes claras sigan vigentes hoy día, que esa división filosófica que se produjo en los primeros días de la investigación sobre IA —la simbólica y la subsimbólica— sigan todavía siendo piedra angular del desarrollo de un campo que para unos está más sólido que nunca, y para otros se está resquebrajando y empieza a dar muestras de entrar en una nueva fase de declive.

A pesar del auge de lo subsimbólico, de que parece ser la vía más robusta para futuros éxitos de la IA, todavía suenan los ecos defendidos por los simbólicos: para que los equipos sean inteligentes, no es necesario construir unos programas que imiten el cerebro, sino que es posible capturar totalmente la inteligencia general con un programa apropiado de procesamiento de símbolos y ya está el poder de cálculo y las toneladas de datos para que eso pueda ser realidad. Pero una cosa es clara: si bien los investigadores implicados en el presente en la IA consideran que están libres de ataduras para evaluar lo que son los derroteros de la IA, será la observación posterior, la que se dé en unas cuantas décadas, la que podrá discernir quien tiene la razón, en dónde falló lo que hoy se pone en marcha y qué acontecimientos fueron los más sólidos.

@tulios41

 Publicado en La Jornada Morelos 

La digitalización en México

La última Encuesta Nacional sobre Disponibilidad y Uso de Tecnologías de la Información en los Hogares (ENDUTIH) 2024 del INEGI revela un panorama contradictorio. Por un lado, el país avanza a pasos firmes en la senda de la conectividad, pero por otro, el aprovechamiento productivo de la red sigue siendo un desafío pendiente, una promesa incumplida que se queda en el aire como lo que acontece con los buenos deseos. Por un lado es innegable que de forma constante se ha ido avanzando en materia de conectividad, pero también es una realidad que el uso de la red para impulsar al pequeño y mediano empresariado sigue siendo otro pendiente, que como es costumbre se dirá que es algo que se subsanará muy pronto, con las nuevas políticas que impulsará el gobierno en turno. 

En la medida que las zonas urbanas han alcanzado la mayor penetración en materia de conexión, los porcentajes bajos de usuarios se sienten en el terreno rural, que cuentan con el 68.5% de penetración de internet. En tal sentido, si bien en México en este momento tenemos un poco más de 100 millones de personas conectadas a internet, las cuales con distintas intensidades y tiempos de uso se definen como usuarias de la red y de lo digital, existe un sector que todavía no tiene esa posibilidad. En suma, el 83.1% de la población de seis años ya está conectada en nuestro país y se mantiene una penetración anual de 3.3%.

De acuerdo con el Digital Report 2025, los cinco primeros países del orbe que tienen las mayores tasas de conexión a internet son Dinamarca, Países Bajos, Noruega, Arabia Saudita y Suiza que alcanzan o superan el 99% de la población. En lo que se refiere a nuestra región latinoamericana las cinco naciones que tienen mayor conexión son Bahamas (94.3%),  Antigua y Barbuda (92.3%), Chile (92.0%), Uruguay (91.0%) y Costa Rica (90.2%). México se encuentra en el séptimo puesto.

Dicho eso, también debe considerarse que es prácticamente imposible que una nación logre que el total de su población se conecte a internet, no solo porque a veces puede resultar complicado franquear los impedimentos geográficos y tecnológicos para llevar la conexión a grupos humanos aislados, sino también porque existen factores culturales, al grado que comunidades o individuos pueden rechazar la tecnología por motivos culturales o simples concepciones ideológicas; y también están las limitaciones en el acceso por aspectos de control político, como acontece con países con censura. Sin embargo, en materia de brechas, pues, no es lo mismo las que se definen por voluntad propia y las que son impuestas por la carencia de políticas e infraestructura tecnológica. Y lo referimos porque aproximadamente 10% de la población en nuestro país no usa internet por falta de conocimientos, y el 18.8% no lo hace por razones como inaccesibilidad económica o falta de contenido relevante.

Un dato que define los hábitos de conexión y consumo de internet tiene que ver desde dónde se conectan las personas, que lo hacen mayoritariamente desde el teléfono celular. Lo que sigue siendo ya una especie de marca de calidad de los mismos usuarios de las nuevas tecnologías, esto porque no se puede soslayar que existe una clara disparidad en el acceso a computadoras, con apenas 43.9% de los hogares que disponen de algún equipo de cómputo, o lo que es lo mismo: solo el 36% de la población usa computadoras, una cifra muy baja y reflejo no solo de la preferencia por conectarse vía dispositivos móviles, sino también evidencia de usuarios con una mala gestión, o de calidad en el uso de las nuevas tecnologías, ya que por más multitareas que puedan ser una persona la verdad es que un smartphone tiene limitaciones respecto a la versatilidad de tareas que se pueden llevar a cabo en una computadora.

Esa penetración y peso de los smartphones se refleja en que el 97.2% de las personas conectadas a internet lo hagan gracias a tales dispositivos. Ello no solo refiere de una inclinación por el uso del móvil como un metamedio de conexión y comunicación, sino también de desafíos en términos de ciberseguridad y de la misma alfabetización tecnológica que es precaria. Celulares y edad van junto con pegado: no extraña que los jóvenes de 18 a 24 años lideren con un 96.7% de adopción de celulares.

En términos generales, se puede decir que los usos productivos de internet y de la digitalización nacional son una realidad: domina el uso recreativo (interacción, redes sociales, entretenimiento) frente a actividades como banca en línea (27.3%) o educación. Esto refleja una adopción superficial de dichos insumos tecnológicos. El bajo uso de computadoras —ya señalado y que vale la pena recalcar— (36%) y el acceso limitado en sitios públicos sugieren una dependencia excesiva de smartphones, lo que puede limitar tareas complejas o profesionales. En términos generales hay una precaria alfabetización digital reflejada en la falta de habilidades tecnológicas, que se tornan en una barrera clave, especialmente entre adultos mayores y poblaciones rurales, lo que perpetúa la exclusión digital. Por otra parte, el incremento del uso de smartphones plantea desafíos en términos de seguridad digital y salud derivada del uso prolongado de este tipo de dispositivos móviles.

Pero no faltamos a la verdad al decir que la ENDUTIH se ha ido estancando. Hace falta que profundice en aspectos que han adquirido relevancia en los últimos tiempos. Por ejemplo, no se aborda el efecto de las nuevas tecnologías en educación, teletrabajo o cuestiones de emprendimiento, lo que limita su utilidad para diseñar políticas públicas específicas. De igual manera, no se exploran suficientemente las razones detrás del bajo uso de banca en línea o comercio electrónico, como la desconfianza o la falta de infraestructura financiera. Otra limitante es que si bien se incorporaron preguntas relativas a streaming y dispositivos inteligentes, la encuesta no aborda tecnologías emergentes como inteligencia artificial, internet de las cosas (IoT) o 5G, que también se consideran cruciales para la transformación digital.

En fin, que la ENDUTIH 2024 con sus claros y oscuros es una herramienta de auxilio, de conocimiento del mapa digital nacional, pero sí con limitaciones en su profundidad y alcance respecto a tecnologías emergentes y usos productivos. Asimismo, en el contexto del reciente día de internet y de la sociedad de la información, sus datos adquieren relevancia, pero también en el marco de una nefasta reforma de telecomunicaciones que ha puesto en marcha el gobierno actual.

@tulios41

Publicado en La Jornada Morelos


Telecomunicaciones amordazadas

Recientemente la presidenta en nuestro país envió al Senado una iniciativa de reforma de Telecomunicaciones y Radiodifusión, y ante las críticas a la misma por partidos de oposición, organizaciones de la sociedad civil, expertos en telecomunicaciones y académicos, que señalaron que la misma vulneraba derechos y afectaba la libertad de expresión, la presidenta decidió meter reversa y abrir un espacio para discutirla, para que las diversas partes interesadas participen y propongan modificaciones a la iniciativa, la cual puede aprobarse entre junio-julio del año que corre.

Un tema central de esa iniciativa de reforma, elaborada directamente por el titular de la Agencia de Transformación Digital y Telecomunicaciones (ATDT), es la regulación de internet. Por décadas, el Estado mexicano ha vigilado a los medios de comunicación a través de diversos mecanismos con el fin de evitar críticas en su contra. En el momento que internet se masificó, sobre todo cuando se hizo factible que ya no era necesario ser programador en HTML para generar contenidos en línea, fue cuando se multiplicaron espacios críticos al gobierno y con la llegada de las redes sociales se facilitó que cualquier opinión fuera fácil de difundir, lo que puso a funcionarios de gobiernos y políticos bajo un escrutinio público, en donde opinar y publicar no requería de pasar por jefes de redacción y gatekeepers, lo que también abrió la puerta a la publicación de contenidos cuestionables y a ciberdelitos, de lo que se valieron gobiernos para que al mismo tiempo que se atendía tales aspectos meter en el mismo saco la regulación de plataformas y redes digitales, afectando derechos de libertad de expresión y acceso a la información.

En nuestra nación la oposición a la regulación de internet se ha expresado en diversos momentos y geografías, ya que lo mismo a escala federal como estatal diversos gobiernos han intentado controlar y/o regular internet. Para ilustrar un caso, recordemos que la reforma de telecomunicaciones de 2014 fue criticada entre otras cosas por intentar controlar la red y carecer de transparencia en su implementación. Pero como han referido varios especialistas en telecomunicaciones, si comparamos la reforma de 2014 con la que hoy se propone, aquella se queda muy corta en el énfasis autoritario respecto a la actual, que podría conducir al ciberespacio a vivir situaciones similares a las que enfrentan regímenes no democráticos como Venezuela o Nicaragua.

En 2014 estudiantes aglutinados en el movimiento #YoSoy132 arengaba en contra de la reforma a las telecomunicaciones, aunque ahora ya no se ve el puño en alto de los otrora cabezas visibles de ese movimiento porque están incrustados en televisoras privadas y el aparato político y administrativo oficialista. Pasa algo similar con el hoy titular de la ATDT, José Peña Merino que en su momento cuestionó varios aspectos de la reforma en telecomunicaciones de 2014, cuando desde la otrora Data Cívica se declaraba devoto del uso de datos y temas de derechos humanos y transparencia. Lo mismo se ve en varios de sus compinches, otrora defensores de la libertad de expresión, de las discusiones abiertas y públicas de las reformas y leyes de telecomunicaciones —cuando sus arrebatos juveniles los hicieron fervorosos defensores de la transparencia y hasta de querer dar vida a partidos piratas—, pero ahora como oficialistas VIP nadan de muertitos y sufren de amnesia radical.

Más allá de la discusión por venir sobre la reforma en las telecomunicaciones, vale la pena referir que la iniciativa de marras culmina con el proceso para acabar con el IFT —uno de los aspectos positivos de la Reforma de 2014— como órgano autónomo de regulación de las telecomunicaciones, oficializa que sus funciones pasan a la ATDT para centralizar y controlar medios y telecomunicaciones, para poner fin, de facto, a contrapesos institucionales y la autonomía en la regulación del sector. El ATDT se llena de poder: puede incluso autorregularse, crear sus propias normas, amén de concentrar más atribuciones que el ya extinto IFT. Establecerá la reglas para otorgar concesiones, regular el espacio radioeléctrico, desplegar el acceso a infraestructura digital, elaborar las políticas de telecomunicaciones y radiodifusión, normar las plataformas de internet, más lo que se vaya acumulando para satisfacer a ese insaciable cíclope. Por si no fuera suficiente, ante la ausencia de un órgano colegiado, con comisionados, para la toma de decisiones, las mismas recaerán en José Merino, que tendrá un poder que ni en sus mejores devaneos mentales él se imaginó tener cuando se reunía con su panda de amigos ciberlibertarios promotores de la radicalidad libre.

Vale la pena recordar a Andrew Arato, para ayudar a contextualizar la discusión que se avecina sobre esta reforma en telecomunicaciones. Él ha establecido dos momentos del populismo: uno, cuando está en el gobierno, etapa en donde no tiene el poder absoluto y debe negociar con sus contrapartes partidarias para sacar adelante sus iniciativas; el segundo es cuando es el gobierno, momento en que el populismo consolida su poder, barre con las instituciones democráticas y establece un control hegemónico; en esta etapa cualquier consulta sirve únicamente para validar las determinaciones del poder. Además, siguiendo a Arato, cuando un Estado tiene control absoluto sobre todos los aspectos del gobierno y sociedad —Suprema Corte, tribunales electorales, supresión de organismos autónomos y de cualquier contrapeso…—, no necesita recurrir a la violencia. La mera existencia de ese poder omnímodo y la ausencia de mecanismos para desafiarlo son suficientes para asegurar obediencia y conformismo, creando una atmósfera de autocensura y aquiescencia sin necesidad de represión activa y visible. En algún momento ese poder se acabará, pero en México el actual populismo autoritario lleva poco tiempo y goza de respaldo ciudadano.

Por eso, la ley no se modificará y no se incorporarán los puntos de vista de especialistas y de los partidos de oposición, o mejor dicho sólo se maquillará; si no se aprendió con las discusiones y consulta sobre la reforma judicial es que se peca de voluntarismo o ingenuidad. Como según el oficialismo ellos son la única «representación del pueblo» y encarnación del Estado, pueden hacer lo que se les antoje y darse el lujo de abrir espacios de discusión para repartir atole.

Como ejemplo de que la reforma en telecomunicaciones está en marcha, recientemente se aprobó sin estridencias ni gran molestia la Llave MX, un nefasto sistema de identificación digital implementado por el gobierno y difundido como la quintaesencia para agilizar trámites, servicios y programas sociales a través de plataformas digitales. Esa abominación es la posibilidad de devenir en recurso de vigilancia masiva por parte del gobierno, al concentrar una gran cantidad de datos personales de millones de ciudadanos, que lo mismo puede servir para fines electorales que para perseguir opositores y gente crítica al gobierno. Este es solo el inicio del caminar de la ATDT, un Juggernau alimentado con pura ivermectina.

@tulios41

Publicado en La Jornada Morelos

La creación de éxitos

En el primer lustro de la primera década del siglo XXI leí un artículo en Wired de Chris Anderson en donde lanzó su concepto de «larga cola» (o long tail), el cual sonaba estupendamente. Eran los tiempos en que todavía a uno le quedaba un resabio ilusorio de que el mundo digital aún era camino para igualar cultural y socialmente, e imaginarse en que la red era una avenida para las cuestiones utópicas en el campo artístico y paliar las penurias y precariedades del sector artístico. Para Anderson, internet reducía los costos de distribución y almacenamiento, lo que permitía que una mayor diversidad de productos culturales, incluidos los de nicho, encontraran su público y ensanchaba el mercado para múltiples productos culturales.

En el caso del terreno musical, Anderson sugería que artistas menos conocidos podían prosperar al llegar a audiencias específicas, a personas enemigas de lo comercial o el mainstream, generando una economía basada en muchos «microhits» y no dependía exclusivamente de los grandes éxitos masivos. Debo decir que como amante de la música eso sonaba espléndido, pero también le parecía estupendo a las tribus de músicos que a lo largo y ancho del planeta tenían propuestas musicales tan ricas y diversas.

Para Anderson, las múltiples plataformas digitales que se abrían camino en ese entonces, podían ofrecer un catálogo prácticamente ilimitado, a diferencia de las tiendas físicas con espacio restringido. En la música, eso implicaba que plataformas de streaming como Spotify o YouTube, por ejemplo, permitirían a artistas independientes o de nicho competir con las grandes estrellas, ya que los consumidores tendrían acceso a una variedad casi infinita de opciones, y se toparían con música y artistas que ni se les había pasado por la mente que existieran. Anderson argumentaba que la suma de las ventas o streams de esos productos de nicho podría igualar o superar los ingresos generados por los grandes éxitos (la «cabeza» de la distribución), democratizando el mercado y permitiendo que el mérito artístico prevaleciera.

A pesar de lo bonito que se escuchaba, la sucia realidad estaba ahí para desmentir las buenas intenciones. Lo cierto es que si bien es cierto que las plataformas de streaming ofrecen un catálogo extenso, la atención de los consumidores al final tiende a concentrarse en un número reducido de artistas populares. El 1% de los artistas más populares genera aproximadamente el 90% de todas las reproducciones en streaming. Esto significa que de los millones de artistas en plataformas como Spotify, solo una pequeña élite concentra la gran mayoría del consumo musical, de tal manera que 1.6 millones de artistas lanzan música en servicios de streaming en un año, pero nueve de cada diez canciones reproducidas son creadas por solo 16,000 artistas o lo que es lo mismo: solo el 1% de los artistas. (shre.ink/xYOl) Esta extrema concentración supera con creces el llamado «principio de Pareto», de su regla 80/20, que en este caso sería que el 20% concentraría el 80%, ya que en el streaming musical la distribución es más bien 90/1. Las preferencias musicales y el mercado de música reflejan, también, la manera en que se distribuye la riqueza a escala planetaria y en los mismos países.

Nick Srnicek había referido en su Capitalismo de plataforma, que el capitalismo digital opera bajo el principio de que el ganador se lleva todo, pero por lo que se ve eso se reproduce también dentro de las plataformas, de manera que hay pocos músicos que se llevan todo, como en las plataformas pocos usuarios tienen más seguidores o sus videos tienen más likes. Es decir, la democracia en la oferta de plataformas sí existe pero la igualdad dentro de las mismas ya es harina de otro costal.

La democratización económica prometida por la larga cola no se ha materializado, o se ha logrado de manera desigual ya que si bien ofrece que todos puedan participar en una plataforma, la mayoría de los ingresos sólo van a parar a artistas de grandes sellos discográficos y superestrellas, mientras que los artistas independientes o de nicho, los de la «cola» al final terminan en eso: en la cola y recibiendo pagos insignificantes por stream (por ejemplo, Spotify paga entre 0.003 dólares y 0.005 dólares por reproducción) (shre.ink/xYOB). Además, en el caso de Spotify el 90% de los ingresos de la industria discográfica procede del 10 por ciento de las canciones. Esto dificulta que artistas menos conocidos vivan de su música, contradiciendo la idea de que los microhits generarían una prosperidad generalizada.

Hoy sabemos que a Anderson presa del entusiasmo se le fue un poco la boca: sobreestimo la demanda, asumiendo que los consumidores buscarían activamente productos de nicho, pero en la práctica, la conveniencia y los algoritmos han canalizado a muchos hacia los grandes éxitos. Además, que cómo buenos primates que somos nos encanta ser parte de la manada, entre más grande sea el grupo que escucha lo mismo que uno más a gusto nos sentimos. Aunque es cierto que Anderson estableció su «ley» antes del auge del streaming y los algoritmos de recomendación, que pusieron de cabeza las dinámicas de consumo. Lo que pintaba Anderson como una ley digital, al final terminó en una ilusión.

Quien complementa esa visión de Anderson es La fábrica de canciones: cómo se hacen los hits de John Seabrook, quien explora el proceso detrás de la creación de los éxitos en la música pop, revelando cómo desde los años setenta del siglo pasado la industria musical ha evolucionado hacia un sistema altamente industrializado y basado en métodos, y automatismos, para producir canciones diseñadas específicamente para devenir populares y ser rentables. Seabrook analiza cómo un selecto grupo de productores, compositores y equipos especializados, han usado técnicas estandarizadas, estructuras predecibles y ganchos pegajosos, apoyados por tecnologías y datos, para fabricar hits que dominan las listas de éxitos.

El libro dibuja la transición desde una creación musical más orgánica y artística hacia un modelo de producción en masa, donde la colaboración entre múltiples profesionales, el uso de algoritmos y la influencia de las plataformas digitales juegan un papel crucial, a menudo por encima del talento individual de los artistas. De esa manera, una canción exitosa para ser tal tiene que estar plagada de hooks, de pasajes o frases pegadizas, que se elaboran con minuciosidad con el objetivo de activar en el cerebro humano una sensación de placer al escuchar la melodía, el ritmo y la misma repetición.

Según la idea de Chris Anderson los hits eran resultado de la escasez de la oferta, pero lo que ha sucedido es lo contrario: ante la avalancha de música que facilitan efectuar las nuevas tecnologías, la gente ha buscado asideros sonoros de consumo masivo, ya que de lo contrario se siente extraviado en las toneladas de propuestas. Pero a pesar de las buenas intenciones y la propuesta igualitaria de la larga cola, lo cierto es que la aparición y masificación de los servicios de streaming no han servido para hacerle la vida más asequible a millones de músicos, sino para reproducir la precariedad.

@tulios41

Publicado en La Jornada Morelos

 

 
Creada por laeulalia basada en la denim de blogger.