Durante los últimos quince años se ha observado un incremento en la polarización política e ideológica y una pérdida de confianza en los medios de comunicación, un fenómeno atribuido en gran medida a la irrupción de las redes sociales, que han amplificado el impacto de voces críticas y discordantes procedentes de fuera del sistema mediático. Esto contrasta con los medios de comunicación de masas nacidos y crecidos a lo largo del siglo XX, como la radio y la televisión, que poseen barreras de entrada altas.
El modelo económico de las empresas tras las redes sociales se basa en captar la atención del público, lo que, según John Burn-Murdoch, periodista del Financial Times, en la práctica tiende a recompensar el contenido sensacionalista sin priorizar la veracidad. De paso, Burn-Murdoch señala que estas compañías han evitado tradicionalmente la responsabilidad legal sobre la información falsa escudándose en su papel de plataformas neutrales, pasando dicha responsabilidad a los mismos usuarios.
Para ello, el columnista del FT echa mano de los datos del estudio Co-operative Election Study, afirmando que, como consecuencia de lo antes explicado, los datos muestran que las redes sociales sobrerrepresentan las posturas radicales tanto a la derecha como a la izquierda del espectro político.
Con el incremento en el uso de los chatbots, los investigadores evalúan actualmente si estas herramientas siguen el mismo patrón de radicalización. Diversos análisis teóricos apuntan a que los desarrolladores de inteligencia artificial compiten para ofrecer herramientas precisas y objetivas destinadas a entornos profesionales y que, a diferencia del caso de las redes sociales, estos sí asumen responsabilidades cuando sus sistemas generan contenido perjudicial.
El análisis citado por Burn-Murdoch en su artículo hizo que los chatbots más utilizados debatieran sobre sesenta y un temas políticos y sociales, en conversaciones que simulaban distintos perfiles de usuarios que representaban todo el espectro ideológico estadounidense, evaluando el cambio estimado en las creencias tras la interacción con la máquina.
Los resultados de este estudio indican que todos los modelos evaluados guían a las personas lejos de las posiciones más extremas, acercándolas a posturas más moderadas y alineadas con el consenso de los especialistas. Este efecto moderador se mantiene incluso cuando el sistema conoce de antemano las inclinaciones políticas del usuario con el que interactúa.
El estudio también detectó ligeras variaciones dependiendo de la plataforma utilizada; así, el modelo Grok tiende a orientar las conversaciones hacia el centro-derecha, lo que supone un empuje moderador para aquellos usuarios que parten de posturas conservadoras extremas, mientras que las herramientas como GPT, Gemini y DeepSeek dirigen los debates hacia una visión de centro-izquierda, alejando a los usuarios de las posiciones extremas de dicho espectro político.
La investigación también analizó la propagación de teorías conspiranoicas, tales como la relación entre las vacunas y el autismo, el fraude electoral o la exageración de las cifras de mortalidad durante la pandemia. Mientras que este tipo de afirmaciones infundadas están sobrerrepresentadas entre los usuarios que publican en las redes sociales, los asistentes de inteligencia artificial casi nunca muestran acuerdo con estas premisas y las rechazan de plano.
Aunque los patrones de uso y los propios modelos de lenguaje podrían evolucionar de manera distinta en el futuro, los datos actuales sugieren que esta nueva revolución de la información podría tomar una dirección menos divisiva que la generada por las plataformas sociales.