📲 Seguir en WhatsApp

¿Por qué no basta con meter una cáscara de plátano para viajar al futuro?

[Tiempo de lectura: 5 minutos] La fascinación por la inteligencia artificial (IA) ha explotado en los últimos años, en parte gracias a las impresionantes capacidades de modelos como ChatGPT, Midjourney o los sistemas de generación de código y música. Muchos usuarios se acercan a estas herramientas como si fueran un Delorean recién salido de Regreso al Futuro: una máquina que, con solo echarle una cáscara de plátano (o una pregunta rápida y sin pensar), te dispara hacia el futuro con una solución brillante, una idea genial o un texto perfecto. Pero, como diría el propio Doc Brown, “¡Eso no tiene ningún sentido, Marty!”.

La metáfora del Delorean es poderosa: en la segunda película de la saga, el automóvil del tiempo funciona con basura común como fuente de energía. Esa imagen quedó grabada en la cultura popular como una promesa: no importa lo que pongas, la máquina lo transformará en maravilla. Y aunque suena atractiva, esa lógica es peligrosa cuando se aplica a la IA.

Porque, a diferencia del Delorean, la inteligencia artificial no convierte cáscaras de plátano en viajes temporales. Lo que devuelve está profundamente condicionado por lo que recibe, y eso nos lleva a hablar de algo que parece estar fuera del radar en muchas conversaciones sobre IA: la subjetividad del usuario.

La materia prima: tu subjetividad

El filósofo esloveno Slavoj Žižek tiene una visión provocadora de la subjetividad. Para él, no somos simplemente “usuarios racionales” que interactúan con el mundo, sino sujetos atravesados por deseos, ideologías, fantasmas inconscientes. Nuestra forma de ver, de preguntar, de enfocar un problema está teñida por eso. Y cuando interactuamos con una IA, esa subjetividad es la materia prima. No hay magia que la transforme. Si la materia prima es pobre, confusa o banal, el resultado difícilmente será brillante, por más avanzada que sea la herramienta.

En otras palabras: si le metemos basura, obtendremos basura. Pero no por culpa de la IA, sino porque nosotros, como usuarios, no supimos activar esa subjetividad de forma creativa, crítica o articulada.

La IA no es un oráculo. No está conectada a una fuente divina de respuestas. Es una interfaz sofisticada que responde a lo que le damos. Por eso, cuando alguien dice “le pedí a la IA que me escriba una novela y no sirvió para nada”, muchas veces está revelando más sobre su manera de pedir que sobre los límites reales de la herramienta.

La ilusión de la máquina mágica

Parte del problema es cultural. Durante décadas, el imaginario colectivo construyó la idea de que las máquinas podían ser más inteligentes que nosotros, y que eventualmente nos superarían. Desde HAL 9000 hasta los replicantes de Blade Runner, hemos fantaseado con inteligencias no humanas que piensan por sí solas. Pero los modelos actuales de IA no piensan: combinan, predicen, estructuran. Y necesitan un punto de partida.

Ese punto de partida es tu pregunta, tu texto, tu enfoque, tu mundo interior. No hay forma de escapar a eso. Incluso cuando creés que simplemente estás “jugando” con la IA, tu subjetividad está en juego.

Y ahí volvemos a Žižek: no hay acción neutra, ni siquiera una pregunta inocente. Cada interacción con una IA es una pequeña puesta en escena de tu manera de estar en el mundo. La herramienta no te “lee”, pero sí responde a los vectores que vos le das.

¿Entonces, cómo usamos bien la IA?

La clave no está en esperar que la máquina lo haga todo. Está en aprender a formular preguntas con densidad, con intención, con capas. En ver la IA como un espejo deformante, un colaborador con quien se puede jugar, discutir, ensayar ideas. No como una máquina expendedora de genialidades.

Esto no significa que haya que ser filósofo para usar IA, pero sí que hay que asumir cierto compromiso: pensar qué se quiere, cómo se quiere y por qué. En ese proceso, la subjetividad no es un obstáculo: es el combustible. Pero no cualquier combustible: uno de calidad.

El mito de la neutralidad tecnológica

Muchos siguen creyendo que la tecnología es “neutral” y que todo depende de cómo se use. Pero cuando hablamos de IA, esta neutralidad es aún más ilusoria. Porque no solo importa cómo se use, sino desde dónde. ¿Qué quiere el usuario? ¿Qué cree que es una buena respuesta? ¿Qué está dispuesto a aceptar como válido? La IA responde, sí, pero dentro de los límites y posibilidades que el usuario mismo traza.

Por eso, más que pensar en cómo se “mejora” la IA, deberíamos pensar en cómo se afina nuestra subjetividad para interactuar mejor con ella. Qué leemos, qué pensamos, qué deseamos. Porque eso es lo que le damos. La IA no va a escribir el libro por nosotros, pero puede ser una gran aliada si tenemos claro qué queremos decir.

La inteligencia artificial no es un Delorean. No va a transformar cáscaras de plátano en viajes al futuro. Pero sí puede ser una herramienta poderosa si entendemos que lo importante no es lo que la IA es, sino lo que hacemos con ella. Y eso nos devuelve al lugar menos tecnológico de todos: nuestra subjetividad.

Usar bien la IA es, en el fondo, conocerse mejor. Preguntarse más y pedirle menos milagros a la máquina. Porque los viajes en el tiempo no existen, pero las buenas ideas, sí. Solo que, como siempre, no surgen de la nada. Surgen de vos.


Discover more from odradek

Subscribe to get the latest posts sent to your email.

1 Comment

  1. Eso que dices es tal cual, aunque lleva mucho esfuerzo trabajarse uno mismo la cabeza y prácticamente nadie está dispuesto, no solo a hacerlo, si no a darse cuenta de que hay que hacerlo. Tengo amigos que han “domado” a la IA y que les responde exactamente lo que quieren oír.
    Supongo que es algo que pasa sea cual sea el tiempo histórico y la tecnología.

Leave a Comment

Your email address will not be published. Required fields are marked *