ArtículosBeautyCambioCentennialsConsumidoresEstrategiaManagementMarcaMarketingNegociosNovedadesOpiniónSociología del Consumo

El Elefante y los Ciegos

Los últimos días estuve leyendo una nota de Benedict Evans, que para mí es uno de los analistas de tecnología más lúcidos. Lo sigo porque tiene una mirada profunda y transversal, capaz de conectar lo coyuntural con el trasfondo de la cuestión. Esta vez hablaba de la IA, en particular de los modelos de lenguaje (LLM, por sus siglas en inglés).

Para decirlo simple: los LLM son sistemas de inteligencia artificial que leen enormes volúmenes de texto y aprenden a predecir la siguiente palabra. Ejemplos conocidos son ChatGPT, Copilot o los traductores automáticos que usamos a diario. No buscan información como Google, sino que generan frases a partir de patrones. Y de esa mecánica aparentemente básica salen traducciones, resúmenes, respuestas coherentes e incluso la ilusión de razonamiento que sentimos al leer algunas de sus salidas.

Evans los divide en tres planos. Primero, como una enciclopedia difusa: “leyeron” gran parte del conocimiento del mundo, pero no lo recuperan con precisión quirúrgica. Segundo, como un motor de razonamiento aproximado: entregan respuestas útiles aunque no siempre exactas. Y tercero, lo que todavía no existe pero sería decisivo: el contexto personal, es decir, que un modelo pueda realmente saber quién sos, qué te interesa, qué buscás, qué comprás, qué mirás.

Lo que plantea es que cada empresa hoy ve apenas un fragmento de nosotros. Google entiende las búsquedas, Instagram y TikTok mapean gustos, Amazon sabe lo que compraste pero no qué significa, y Apple o Android registran partes de tu actividad. Evans recurre a la metáfora de los ciegos y el elefante: cada uno toca una parte —el que palpa la trompa cree que es una serpiente, el que palpa la pata cree que es un árbol— pero nadie logra ver el animal completo. Con los datos pasa lo mismo: son pedazos, nunca la totalidad.

Mientras tanto, en sectores como el retail ya aparecen aplicaciones que, aunque parciales, funcionan: buscadores que entienden mejor el lenguaje natural, resúmenes automáticos de reseñas, herramientas publicitarias que ajustan campañas con más precisión. Son avances útiles, pero todavía no cambian el juego de fondo. La pregunta es: ¿qué viene después?

Según Evans, el próximo salto sería combinar tres cosas a la vez: razonamiento útil, contexto personal profundo y una comprensión real de los objetos y contenidos. Esa convergencia transformaría a la IA en algo más que un buscador sofisticado o un generador de resúmenes: sería un verdadero asistente, capaz de entender quién sos y qué significan las cosas que consumís.

El problema es que ninguna empresa quiere que otra llegue primero a ese punto. Cada una protege su porción de información, y por eso el mapa completo sigue sin aparecer. Tal vez incluso convenga que siga así, porque el día que alguien logre ver al “elefante entero” no solo podrá anticipar lo que queremos, también podrá moldearlo. Ya no sería conveniencia, sería control. Más cerca de Orwell que de la promesa de comodidad.

De ahí mi pregunta: ¿estamos dispuestos a entregar tanta visibilidad a cambio de un poco más de comodidad? No perdamos de vista que esa decisión sigue estando en nuestras manos, aunque todo nos haga creer lo contrario. La capacidad de agencia del ser humano no se negocia. Esa es la línea que no debemos cruzar.

Daniela De Sousa Mendes