Un algoritmo ficticio basta para influir en decisiones como a quién votar o con quién salir

algoritmos

Investigadoras de la universidad de Deusto demuestran que incluso las recomendaciones más rudimentarias pueden ser efectivas y advierten de los riesgos que entraña que las grandes tecnológicas hagan lo mismo con más recursos.

Monse Hidalgo Pérez/El País

Pongamos que le proponen utilizar un algoritmo para determinar qué político se ajusta más a sus preferencias. Y, que acepta la prueba, claro. La herramienta le plantea entonces unas cuantas preguntas propias de un test de personalidad, le ofrece después un resultado en el que se ve razonablemente retratado, y le indica cuáles son los candidatos más apropiados en función de la información que ha recabado. ¿Seguiría su consejo? De acuerdo con los experimentos conducidos por Helena Matute y Ujué Agudo, investigadoras de la Universidad de Deusto, para el estudio que acaban de publicar, no solo aceptaríamos sus recomendaciones, sino que lo haríamos sin poner en cuestión la fiabilidad de ese sistema cuyos entresijos desconocemos y que, en este caso, ni siquiera existe.

Las preguntas eran de pega. La evaluación, una respuesta genérica para todos los participantes —que, por cierto, valoraron el sistema como “moderada o altamente preciso”— y los cálculos del algoritmo una asignación al azar. El objetivo de las investigadoras, que aplicaron una serie de variaciones de este experimento a la elección de candidatos políticos y contactos en una aplicación de citas, era comprobar si un algoritmo puede influir en las preferencias de la gente a través de persuasión explícita o encubierta.

En el contexto de las aplicaciones de citas, el método más efectivo fue el encubierto, donde no se indicaba al usuario cuál es el usuario recomendado, sino que se le mostraba más veces. Al aumentar la exposición, los participantes tendían a elegir a los más vistos, movidos por un mayor sentimiento de familiaridad. Las investigadoras explican que esta diferencia podría estar relacionada con la preferencia de consejo humano en entornos subjetivos, como con quién salir, mientras que optamos por consejo algorítmico en decisiones racionales como a quién votar. Con todo, Matute califica la variación por contextos como algo “anecdótico” en comparación con la importancia que tiene el mero hecho de que exista esa influencia: “Me parece muy preocupante que solo por creer que es una inteligencia artificial quien te está recomendando, tú ya te fías. Estamos preguntando al oráculo, como en la antigüedad”.

¿Por qué basta un algoritmo ficticio para que caigamos en la trampa? “Hay gente a la que ese tipo de descripciones vagas de personalidad le sirven para decir qué bien funciona el horóscopo. Es la mente humana, que es muy vulnerable. Estamos muy expuestos a creernos determinadas cosas”, razona Matute. En cuanto a que nos parezca razonable que un algoritmo pueda, con unas pocas preguntas, determinar a quién debemos votar ambas investigadoras coinciden en que estamos cada vez más habituados a aceptar ciegamente todo tipo de recomendaciones. “Estamos repitiendo tanto eso de que los algoritmos nos conocen mejor que nosotros mismos que al final nos lo vamos a creer. Pero una cosa es que nos conozcan y otra que lo que nos recomiendan sea lo mejor para nosotros”, señala Agudo. “Su objetivo no es ese. Es que pases el mayor tiempo posible en sus plataformas. El usuario tiene que tener en cuenta eso, porque nos parece que la decisión es libre, pero está mediada por la propia recomendación”.

Además la efectividad del algoritmo ficticio sugiere que un sistema más sofisticado como aquellos con los que interactuamos cada día en buscadores, redes sociales y plataformas de streaming, entre otros, tienen el potencial para conseguir niveles de influencia mucho mayores. Un ejemplo es el alcance que podría tener el algoritmo de Facebook en su nueva aplicación para parejas. “Nosotras hemos hecho unos experimentos controlados. Las grandes plataformas que pueden, de forma continuada, pulir ese algoritmo y muchas veces ni nos enteraríamos de que lo están haciendo”, comenta Agudo.

Políticos reales y elecciones reales

Estas desigualdades entre la investigación que puede realizar una institución académica y las que se conducen de forma privada y muchas veces opaca dentro de estas empresas van más allá del número de sujetos e incluso de las tecnologías disponibles. “Pueden hacer mucha más investigación que nosotros no solo porque tienen acceso a más gente, sino porque encima pasan de la ética”, subraya Matute. “Nosotros hemos tenido que hacerlo todo con cosas ficticias. Ellos lo hacen con políticos reales en elecciones reales”. La investigadora se muestra especialmente crítica con los laboratorios y juntas de ética que incorporan compañías como Google. “Para mí son un horror. Encima cuando hay alguna persona que se lo plantea en serio, se la quitan de en medio. Es absurdo. No se puede dejar el debate ético de las tecnológicas a las tecnológicas”.

En este sentido, las investigadoras confían en que su trabajo, que conlleva también la publicación de los brutos los datos recabados, contribuya a ampliar la investigación académica y públicamente accesible sobre estas materias. “Desde la academia se está abriendo todo cada vez más. Cualquiera puede analizar tus experimentos, replicarlos, evaluar tus hipótesis… Tú ahora quieres comprobar si el algoritmo de Netflix está dando más peso a unas u otras variables y no tienes manera de saberlo“, comenta Agudo.

En cuanto al modo en que se presentan estas ya ubicuas recomendaciones, Matute señala que son preferibles las que se presentan de forma explícita, puesto que por lo menos dan al usuario concienciado la posibilidad de frenarlas. “Pero muchas veces no tomar esa decisión que viene sugerida implica tanto esfuerzo que hay un doble empujón: te la recomiendo, pero es que además te pongo difícil que hagas otra cosa”, matiza Agudo.

Únete a nuestro Canal en Telegram