comscore
Tecnología

¿Qué hay detrás de los algoritmos de las redes sociales? Experto lo explica

Santiago Jiménez Londoño abordará el papel del algoritmo en la vida moderna durante la Semana de la Comunicación en Cartagena.

¿Qué hay detrás de los algoritmos de las redes sociales? Experto lo explica

¿Qué hay detrás de los algoritmos?. //Foto: Ilustración 123RF.

Compartir

El profesor Santiago Jiménez Londoño, es doctor en filosofía. Parte de su trabajo es pensar en cómo las nuevas tecnologías afectan la vida de la gente y su existencia. Recientemente publicó el libro titulado Algoritmos deshumanizantes una investigación de varios de varios años que escudriña en los propósitos de los algoritmos y las intenciones de sus diseños.

El lunes 20 de octubre estará en la Universidad de Cartagena, durante la apertura de la Décima Semana de la Comunicación/ Días de la palabra, que organiza el programa de Comunicación Social. Con él conversamos sobre su obra y la relación del hombre con las tecnologías.

- ¿Me pregunto, si es redundante decir algoritmos deshumanizantes?

Me encanta esa pregunta porque toca el nervio del libro. Mira, podría parecer redundante si pensáramos que todos los algoritmos, por definición, nos deshumanizan. Pero no es así.

Un algoritmo es, en esencia, un procedimiento, una secuencia de pasos para resolver un problema. Cuando usas el GPS para llegar a un lugar, hay un algoritmo detrás. Cuando una plataforma te recomienda una serie, hay algoritmos también allí.

El problema no es el algoritmo en sí. El problema surge cuando estos procedimientos empiezan a sustituir nuestra capacidad de reflexión, de decisión, de encuentro con el otro, en lugar de ampliarla. Ahí es donde se vuelven deshumanizantes.

Te doy un ejemplo concreto del libro: las redes sociales. El algoritmo que decide qué amigos aparecen en tu feed no es malo porque sea un algoritmo, es deshumanizante porque nos va alejando de la amistad aristotélica -esa que se construye en la confrontación, en el diálogo, en el tiempo compartido- y nos empuja hacia una mercantilización de las relaciones donde tu amistad “existe” solo si hay consumo constante del otro.

Así que no, no todos los algoritmos deshumanizan. Pero los que sí lo hacen -y hay cada vez más- merecen que los nombremos, los estudiemos y busquemos alternativas.

- ¿Cuánto tiempo llevas trabajando en estas indagaciones?

Empecé en 2018, cuando arranqué mi maestría en Ciencias Naturales y Matemática. Allá aprendí a construir modelos matemáticos, redes neuronales, toda esa parte técnica. En algún momento empezaron a surgir preguntas que no tenían que ver con el código o los datos, sino con algo más incómodo, porque una cosa es entender cómo funciona una red neuronal, y otra muy distinta es preguntarte: “Oye, ¿qué estamos delegando acá? ¿Qué pasa cuando dejamos que estas estructuras tomen decisiones por nosotros? Esas preguntas me devolvieron a la filosofía, a buscar lecturas que me ayudaran a entender lo que estaba viendo.

Luego llegó el boom de la Inteligencia Artificial, IA, de estos últimos años, ChatGPT, todo eso, y ahí todo se volvió urgente. Me di cuenta de que esto no es solo un tema laboral o de productividad, la IA nos está atravesando en asuntos más profundos: cómo nos relacionamos, cómo entendemos la amistad, incluso nuestra noción de lo que significa ser un individuo. Ahí está la tensión que me llevó a escribir el libro. Soy optimista con la tecnología, creo en su potencial, pero me inquietaba ver cómo estábamos perdiendo la capacidad de pensar críticamente sobre ella.

- ¿Cómo podemos pensar en algoritmos humanizantes?

Un algoritmo humanizante es uno que amplifica tu capacidad de decisión, no que decide por ti. Que te hace más autónomo, no más dependiente. Es un cambio de lógica total. Mira David, lo que pasa hoy con las redes sociales, sus algoritmos están diseñados para una sola cosa: maximizar tu tiempo en pantalla. No les importa si eso te enriquece o no. Te muestran lo que saben que te va a generar una reacción emocional fuerte: indignación, envidia, ese entretenimiento superficial que te atrapa pero no te deja nada.

Un algoritmo humanizante operaría al revés. Priorizaría calidad sobre cantidad, te ayudaría a tener encuentros reales en lugar de acumular likes vacíos. Aquí entra un tema duro que es el de los sesgos, si entrenas una IA con datos históricos que están llenos de prejuicios -discriminación racial, de género, socioeconómica, todo eso- el algoritmo va a reproducir y amplificar esos sesgos.

- ¿Qué se van a encontrar las personas que vayan al performance tecnológico, este lunes 20 en la Semana de la Comunicación/ Días de la palabra?

Van a encontrar una conversación honesta sobre cómo operan estos algoritmos y cómo nos están atravesando la vida. Nada de tecnicismos incomprensibles ni el apocalipsis tecnológico.

No voy a dar respuestas definitivas porque no las tengo. Lo que sí voy a hacer es abrir preguntas, mostrar tensiones, invitarlos a pensar juntos. Porque esto que estamos viviendo es demasiado importante como para pensarlo en soledad.

Santiago Jiménez Londoño, doctor en filosofía. //Foto: Cortesía.
Santiago Jiménez Londoño, doctor en filosofía. //Foto: Cortesía.

Frente al poder de las grandes empresas de IA, ¿no será que solo somos parte de un mercado?

Hay algo que el filósofo francés Éric Sadin llama la “siliconización del mundo”, y me parece brutal porque describe exactamente lo que estamos viviendo: todo termina atravesado por las lógicas de Silicon Valley. Cómo te relacionas con tus amigos, cómo trabajas, qué consumes, incluso cómo piensas sobre política o sobre tu cuerpo. Todo está mediado por estas plataformas.

Ahí está la trampa que muchos no ven: “Si el servicio es gratis, el producto eres tú”. Instagram, Facebook, Google, TikTok... todos son “gratis”, ¿cierto? Pero no, lo que pasa es que estas empresas convirtieron tu vida en materia prima. Cada clic que haces, cada búsqueda, cada “like” que das, se traduce en datos que alimentan algoritmos diseñados para predecir qué vas a hacer y, lo que es peor, para modificar tu comportamiento.

Por eso necesitamos educación, transparencia y, sobre todo, conversaciones y pensamiento crítico. Detrás de cada servicio “gratuito” hay un modelo de negocio que nos convierte en mercancía.

¿Qué hacer en las universidades con la IA?

Lo primero que tienen que entender las universidades es que el problema no es la IA (Modelos grandes de lenguaje, en este caso), somos nosotros. Si una IA puede resolver fácilmente tus exámenes, esos exámenes ya estaban mal diseñados antes de que existiera la IA. Y lo irónico es ver profesores obsesionados con detectar plagios, algunos incluso usando ChatGPT para detectar si un texto fue hecho con ChatGPT. Es absurdo. La solución no es prohibir ni castigar.

El asunto es más profundo: si seguimos evaluando la capacidad de repetir información, estamos compitiendo con las máquinas en lo que mejor hacen. Obvio vamos a perder esa batalla.

Lo que deberíamos hacer es cambiar el juego. Evaluar no las respuestas, sino las preguntas. La capacidad de asombro, de conectar ideas que parecían no tener nada que ver, de pensar críticamente. Como decía Cantor: “El arte de proponer una pregunta debe ser más valioso que resolverlo”.

__

Únete a nuestro canal de WhatsApp
Reciba noticias de EU en Google News