Subes una foto, obtienes un perfil psicológico: el lado oscuro de la inteligencia artificial

Una sola imagen basta para que los algoritmos sepan más de nosotros de lo que imaginamos. Investigadores españoles comprobaron cómo la inteligencia artificial puede deducir rasgos de personalidad, ideología e incluso nivel de ingresos a partir de una fotografía. Un hallazgo que plantea inquietantes preguntas sobre privacidad y manipulación digital.

Un vídeo recomendado, un anuncio oportuno o un recuerdo que aparece justo cuando lo necesitamos: los algoritmos parecen conocernos demasiado bien. Pero lo más inquietante es que pueden hacerlo sin que hablemos ni escribamos nada. Investigaciones recientes revelan que, a partir de una sola imagen, los sistemas de visión artificial son capaces de inferir rasgos personales, sociales y económicos con sorprendente precisión.

De la observación visual a la lectura semántica
Las plataformas digitales no solo analizan lo que publicamos, sino también cómo se nos ve. Herramientas de visión por computador —como Google Vision API— pueden extraer de una foto no solo objetos o lugares, sino emociones, contextos culturales e incluso patrones de comportamiento.
Experimentos como TheySeeYourPhotos, desarrollada por un exingeniero de Google, demuestran hasta qué punto una simple fotografía contiene más información de la que creemos compartir.

El problema ya no es que las máquinas reconozcan lo que aparece en la imagen, sino que interpreten lo que creen que dice sobre nosotros: si somos optimistas o introvertidos, de clase media o alta, de inclinación progresista o conservadora.

Un experimento con una foto: así se construye un perfil invisible
Un equipo de la Universidad Miguel Hernández analizó una fotografía personal con esa tecnología.

En un primer nivel, el sistema describió la escena con precisión: un joven, una barandilla, un monumento y una localización aproximada.
Pero en el segundo nivel, el inferencial, la inteligencia artificial fue más lejos: dedujo el origen étnico (mediterráneo), el rango de ingresos (25.000–35.000 euros), la personalidad (introvertido), las aficiones (viajes, fitness) e incluso una ideología política y religiosa.
El algoritmo también propuso anuncios adaptados a ese supuesto perfil: viajes, idiomas, aplicaciones de bienestar. Aunque los resultados no sean exactos, revelan la lógica del sistema: transformar la identidad en un conjunto de etiquetas comerciales.

Del perfilado a la manipulación: el otro riesgo del algoritmo
El objetivo inicial de estas tecnologías es la segmentación publicitaria, pero su potencial va más allá. Si un algoritmo puede inferir ideología o estado emocional, también puede ajustar los contenidos que vemos para influir en nuestras decisiones.
Empresas como Meta han experimentado con “usuarios sintéticos” —perfiles generados por IA— para prolongar la interacción y aumentar el tiempo de conexión.
La frontera entre personalización y manipulación se vuelve difusa: ¿nos muestran lo que queremos ver o lo que conviene que creamos?

A esto se suma la debilidad de los marcos regulatorios. La multa récord de 1.200 millones de euros a Meta en 2023 por transferencias ilegales de datos entre Europa y Estados Unidos demuestra que, para las grandes plataformas, la sanción puede ser solo otro coste operativo.

Conciencia crítica: la única defensa real
Cada publicación, reacción o selfie alimenta los modelos de aprendizaje que definen nuestra experiencia digital. Así nacen las burbujas de filtro, concepto popularizado por Eli Pariser, que describe cómo los algoritmos aíslan a los usuarios en ecosistemas de información afín.
El resultado: un internet a medida, cómodo pero cada vez más cerrado y polarizado.

Comprender que el “feed” de nuestras redes no refleja el mundo real, sino una proyección algorítmica personalizada, es fundamental para recuperar el pensamiento crítico.
Herramientas como TheySeeYourPhotos nos ayudan a verlo: los algoritmos no solo predicen quiénes somos, sino que intentan definirnos. Y saberlo puede ser el primer paso para no dejar que lo hagan.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *