En un nuevo episodio de La Fórmula Podcast, Joan Cwaik, el divulgador especializado en tecnologías emergentes y sociedad, expuso los efectos invisibles pero determinantes que los algoritmos tienen sobre nuestras decisiones, emociones, vínculos y hasta la percepción de la realidad.
Analizó cómo la hiperpersonalización digital y las burbujas de contenido moldean conductas sin que lo notemos, y advirtió sobre la radicalización silenciosa que puede surgir en ese entorno. Con ejemplos concretos y mirada crítica, cuestionó el “precio de la conveniencia” que implica delegar la autonomía en sistemas diseñados para maximizar la atención y no la profundidad. El episodio completo ya está disponible en Spotify y YouTube.
Joan es un autor, conferencista y docente argentino especializado en tecnologías emergentes y su impacto en la sociedad. Con una sólida formación académica y profesional, actualmente es Head of Marketing para Latinoamérica en Maytronics, profesor en la Universidad de San Andrés y columnista en medios. Ha publicado cuatro libros, el más reciente es: El algoritmo: ¿quién decide por nosotros? Ha brindado más de 400 conferencias en 18 países, donde promueve la importancia de recuperar habilidades humanas como la empatía, la creatividad y el pensamiento crítico frente al avance de la automatización.

— En tu último libro explicás cómo los algoritmos impactan en el amor, la productividad, las decisiones y hasta en la economía. ¿Dónde creés que reside la mayor tensión o incertidumbre que esto genera en las personas?
— Los algoritmos muchas veces nos conocen mejor que nosotros mismos, son tan personalizados, que compiten tan bien por nuestra atención que nos resulta más cómodos y al ser humano, desde la biología, siempre vamos a ir a lo que nos resulta más cómodo, entonces ¿por qué nos cuesta ver tanto una película o una serie sin ver el teléfono? Por el mercado de la atención. Si a algo yo tengo que dedicar 45 minutos, una hora, en tan sólo dos minutos puedo retribuir y generar una dopamina cada vez más rápida, cada vez más placentera para nuestro estímulo biológico, entonces creo que una de las capas de análisis más importante que tenemos que entender es el precio de la conveniencia. ¿Qué estamos cediendo a cambio de esa conveniencia? ¿qué estamos cediendo a cambio de ese confort?
— Lo que decís en el libro me hizo pensar en cómo el algoritmo no solo moldea lo que consumimos, sino también cómo creamos. A veces sacrificamos profundidad solo para captar la atención en el primer minuto.
— Es cierto, pasa en la música, en una película. Si en los primeros dos minutos no hay bombas, explosiones, sexo, violencia, salteamos, hacemos un zapping muy rápido frente a esta sensación de abundancia, y eso lo podemos traspolar a un montón de ámbitos en nuestra vida cotidiana. A la hora de crear contenido cuántas veces hemos escuchado: “El algoritmo no me quiere, no me está mostrando, no sé cómo hacer para satisfacerlo”, el famoso shadowban, esto de “el algoritmo me está castigando”, porque premia cantidad a calidad, lo inmediato a lo profundo, el consumo más fugaz, más superfluo, es como la punta del iceberg porque la profundidad, de alguna forma, queda en segundo plano. Esto no es una invitación a demonizar a los algoritmos, pero hay algo muy importante que tenemos que comprender: que los algoritmos no son neutrales, tienen ideologías, hay gente que está atrás con intereses económicos, sociales, geopolíticos específicos para retenernos. A TikTok o a Instagram le conviene que nosotros sigamos en la aplicación. Esas ideologías además están plagadas de sesgos, de intereses económicos, de intereses del capitalismo en general, y eso está redefiniendo un montón de cosas.
Vamos a un caso bien concreto: yo tengo un amigo de la secundaria que los algoritmos deciden no mostrármelo o mostrármelo cada vez más lejos en las publicaciones de historias o las publicaciones de feel por una cantidad de reglas que no término de entender ni son muy claras, ¿qué me termina pasando a mí con ese vínculo? A largo plazo está perdiendo relevancia en mis amistades o en mis vínculos sociales, lo mismo pasa puede ser con un colega del trabajo, con el amor. Los algoritmos están empezando a redefinir muchas cosas muy profundas de nuestra vida cotidiana y la bajada del libro es “¿quién decide o quién termina decidiendo por nosotros?” Porque nosotros tenemos una ilusión de estar controlando a quién seguimos, a quién dejamos de seguir, a quién silenciamos, a quién bloqueamos, a quién ocultamos, a quién ponemos en “mejores amigos”, o esos mismos términos y condiciones que firmamos, muchas veces sin leer, pero es una ilusión, porque al fin y al cabo hay muchos intereses por detrás. Entonces ¿quién termina decidiendo por nosotros? ¿Somos realmente autónomos en este siglo XXI o estamos siendo controlados por estos entes tan difíciles de comprender o de interpretar?
— Los sesgos siempre existieron, pero el algoritmo y la era digital los amplifican: hoy no sólo elegimos lo que confirma nuestras ideas, sino que vivimos cada vez más encerrados en nuestras propias burbujas.
— Nos terminamos radicalizando sin darnos cuenta también, porque los algoritmos me van a mostrar gente que piensa parecido a lo que pienso yo, no me van a mostrar lo que piensan a amigos de mis amigos, me van a mostrar gente que seguramente concurra a los mismos restaurantes o lugares turísticos, o que usen marcas de ropa parecida a la que uso yo, todo obviamente con esa promesa de los fines publicitarios o de esa personalización de oferta, pero también nos terminamos encerrando cada vez más, entonces hay una capa que es el precio de la conveniencia. Otra capa es esto de las cámaras de eco y radicalizarnos sin darnos cuenta, y hay una tercera capa que es esto de no entender cómo funciona la tecnología, no ser conscientes porqué estamos en un mundo que nos fomenta consumir tecnología y no a crear tecnología, nos fomenta a leer y no a escribir.
Hay un cuento del año 1797 que se llama “El aprendiz de brujo”, después Disney hizo una adaptación en la década del ’40, escrito por Goethe, que es muy interesante y un poco ilustra esto de los algoritmos. Básicamente la historia es que un brujo contrata a un aprendiz y se va de ese taller. El aprendiz le hace el encanto a una escoba para que vaya a buscar automáticamente agua a un río y vuelva a llenar una batea. Al principio estaba chocho el aprendiz porque con ese encantamiento lo que hacía era que se obviaba ese trabajo operativo de ir a buscar al río el agua, volver, ir y volver, ir y volver, lo que pasa es que en un momento no podía cancelar el hechizo y se empezó a inundar el espacio porque no entendía muy bien cómo usarlo hasta que llega el brujo y de alguna forma elimina ese hechizo. ¿Qué tiene que ver esto con los algoritmos? Todo. Si estamos cediendo constantemente nuestras decisiones, nuestras formas de vincular, nuestras formas de crear, nuestra forma de exponernos, a una tecnología que no terminamos de comprender, quizás estamos en un momento en donde el agua nos está llegando a las rodillas, y eso está muy vinculado a la forma de cuán consciente somos, de qué límites les estamos poniendo, y de qué estamos cediendo porque a la hora de usar tecnología siempre estamos cediendo algo a cambio.
— ¿Qué otras áreas y qué otras cosas cedemos?
— En relación a la política, por ejemplo, los algoritmos no nos van a mostrar gente que piense distinto a nosotros, no nos van a mostrar posturas encontradas u opuestas a lo que pensamos, no nos van a mostrar otras ideas o candidatos que de alguna forma promuevan otro tipo de ideas. Cuando vamos al amor, el amor se resignificó muchísimo producto de los algoritmos, lo hemos conversado en nuestra primera conversación hace algunos meses. Terminamos de alguna forma sometiéndonos a estas reglas de despersonalización que hasta ahora Tinder sacó esta opción de personalizar la altura de la gente con la que quiera salir, entonces cuando estamos cediendo tanto, en esta ilusión de opción, de abundancia, de contenido, estamos dejando de lado y cediendo un mundo muy grande. ¿Cuándo fue la última vez que hicieron algo que no fue sugerido por un algoritmo? Y esa forma de escaparse, ese pequeño acto, puede ser desde escuchar este podcast, hasta juntarse a tomar un café con un amigo. No estoy demonizando, pero están mucho más presentes en nuestra vida cotidiana de lo que realmente pensamos, en todo ámbito, desde la economía, hasta un suplemento que estoy tomando que, al fin y al cabo, fue una cantidad de reels o de videos o de noticias que empezaron a seguir mi huella digital y hoy en día estoy tomando magnesio. ¿Pero por qué estoy tomando magnesio? si no me lo recetaron. Magnesio, dietas keto, pueden haber mil cosas. Pero, ¿por qué terminamos haciendo esas cosas? porque nuestros consumos, deseos, formas de vincularnos, las amistades, nuestra postura ideológica, percepción de la realidad está siendo cada vez más mediada por estos agentes invisibles que son como arquitectos guionistas de nuestra vida cotidiana.
La tecnología siempre va a un lado de la perfección, esto de “buscarme la próxima banda que estoy seguro que te va a encantar”, “buscarme la próxima película que va a tener 99,99% de probabilidades que me guste”, “buscarme la próxima pareja que tenga la compatibilidad para esta decisión que no terminamos de comprender muy bien”. El ser humano es altamente imperfecto, muy complejo, lleno de dudas, de sesgos, de experiencias pasadas, de historias, y en esa imperfección ahí surge un poco el lado humano, entonces qué nos queda de humanos o qué nos queda de espontáneo en un mundo donde está todo tan hiperpersonalizado y cada vez va a ser más hiperpersonalizado. Entonces no estamos demonizando sino que estamos de alguna forma buscando cuáles son esos pequeños actos de rebeldía o cuáles son esos límites. A mí me preocupa esto de poner a la tecnología por delante del ser humano, siento que muchas veces en estas áreas de la vida ponemos la tecnología por encima del ser humano.
— Cuando decís “la ponemos por delante” ¿te referís a que confiamos más en su capacidad que en nuestras capacidad de decisión?
— En su capacidad de sugerir o de inferir o de prever o de definir por sobre nuestra capacidad, sin lugar a dudas. ¿Qué va a pasar con una generación que siente que tiene todo al alcance? Porque cada vez, año a año, la barrera de entrada a los dispositivos y a la conectividad es menor, entonces ¿qué va a pasar con los chicos que hoy en día están en primaria, que tienen esa sensación de abundancia, de conexión con todo, que el umbral de tolerancia es cada vez menor año a año, que delegan esa capacidad cognitiva constantemente a las máquinas o a los modelos de lenguaje? ¿Qué va a pasar con esa generación frente al fracaso? Yo no soy especialista en temas médicos, pero me preguntan muchas veces si el aumento cada vez más deataques de pánico, trastornos de ansiedad, condiciones de gente con hiperactividad, no estará vinculado a una supresión cada vez mayor del cuerpo, y empezar a usar plataformas al respecto. Eso nos da mucho qué pensar del mundo.
— Pedirle a una plataforma que recomiende una película según cómo quiero sentirme, o que una cadena grabe una charla y luego me haga un resumen, es una tentación difícil de resistir.
— Es el precio de la conveniencia, qué estamos dispuestos a hacer por eso, es muy apetecible también si quiero cortar con una persona, con una pareja, decirle a chat GPT: “¿Cómo hago para cortar con esta persona? ¿Me decís el texto?”, es muy apetecible caer en TikTok para ver contenidos hiperpersonalizados y si a mí me gustan las cartas Pokémon y los videos de gatos cayéndose, me van a mostrar solamente eso y no me va a mostrar otra cosa…
— ¿Y cuál es el costo de la conveniencia?
— El costo es perder en profundidad, en humanidad, perder en la autonomía y en decisión. Es muy apetecible, la tecnología nos da las cosas muy servidas en bandeja, es como tener ahí constantemente un paquete de cigarrillos hace varias décadas a disposición permanente que nos genere una satisfacción muy rápida y nos hace que no ejercitamos quizás tanto el pensar con criterio, el esforzarnos, el comprometernos, es muy apetecible eso.
— ¿Cómo influye el contenido digital que consumimos diariamente en nuestra percepción de la realidad?
— Hay un concepto interesante que yo planteo en el libro que es el de la dieta digital. Nos preocupamos cada vez más de cómo comemos y entrenamos, ¿pero nos estamos ocupando de qué estamos consumiendo en el ámbito digital? Podemos comer hamburguesas con papas fritas un día, dos días, tres días, pero si lo comemos todos los días va a haber potencialmente un problema, no soy experto en nutrición, pero lo digo desde el sentido común. Podemos ver Tik Tok de tiburones con zapatillas un día, dos días, tres días, ahora si nuestros algoritmos solamente nos presupone ese tipo de contenido y estamos todo el tiempo viéndolos, puede haber potencialmente un problema ahí porque nos está empezando a afectar la percepción. Esto de los contenidos creados con inteligencia artificial es una capa muy interesante en el mundo del entretenimiento porque ya no nos busca ni divertir, ni entristecer, buscan que no pensemos directamente, entonces hay una búsqueda de no pensar, de seguir en el loop para que no cerremos la aplicación, entonces es superimportante seguir esto de la nutrición digital.
¿Qué estamos consumiendo? Los algoritmos están condicionando nuestra percepción de lo que es verdad. Este tipo de contenidos al algoritmo le gusta porque hace que consumamos más, que confrontemos, que digamos: “Esto no es así, esto no es verdadero, esto sí es verdadero” entonces todos esos debates fomentan esa confrontación y esa radicalización, para dar un ejemplo bien puntual de la actualidad, por eso para mí el bienestar digital y las dietas digitales tienen que empezar a conversarse desde la escuela primaria. Vamos al caso del uso de la tecnología que es interesante. Nosotros para conducir un auto tenemos que tener cierta edad, tenemos que entender que si hay un semáforo en rojo debemos frenar, que que si no hay giro a la izquierda no podemos doblar la calle con semáforo, tenemos que hacer un test psicológico, un test físico, un test de conocer las reglas de tránsito; ahora un teléfono celular, ni hablar una inteligencia artificial generativa, es mil veces técnicamente más complicada que un auto y nos dan esas herramientas sin ninguna instrucción, ahí surge la radicalización, ahí surge el ghosting, ahí surge el orbiting, ahí surge la falta de compromiso, ahí surge la creación de contenidos de la llamada “podredumbre cerebral”, estamos frente a contenidos que se definen como “podredumbre cerebral”.
Entonces somos una humanidad muy empoderada por la tecnología y como dice el tío Ben, el tío de Peter Parker de Spider Man: “Todo gran poder, conlleva una enorme responsabilidad”, entonces tenemos que administrar muy bien esa responsabilidad que nos da la tecnología, que es una herramienta maravillosa, pero hoy en día esa responsabilidad la estamos tomando entre pinzas.
— Joan, para concluir, te voy a hacer la última pregunta: contame algo que, en el último tiempo, te haya gustado, emocionado o dejado pensando. Lo que vos quieras.
— Conocí a una persona que me flasheó mucho esto de la forma de concebir la vida, entonces me parece que al fin y al cabo nos terminamos también vinculando y los proceso te llevan también a conocer amigos, potenciales parejas, potenciales colegas, lo que fuese, pero conocí varias personas que un poco rompieron el molde del estatus quo del 2025. Hay una humanidad también muy grande ahí por detrás, por descubrir y creo que tenemos que darle tiempo a las cosas para que aparezcan esas personas. Decidí exponerme a entornos distintos para conocer a esas personas.
Fuente: Infobae.com