La otra leí la historia de un experto que se llamaba Deepak Varuvel y casi me da algo. Resulta que su padre tuvo un tumor en la lengua y los médicos querían operar ya. Su hermana, que es médica de las de verdad, insistía en la operación. Pero sus padres, que son de la India de toda la vida, querían probar primero con un sanador tradicional, un vaithiyar, que les preparaba hierbas . El tío Deepak, que es moderno y quiere ayudar, se pone a buscar en internet y en ChatGPT. ¿Y qué encuentra? Pues que lo único válido es la operación. Todo lo que no estaba en internet, básicamente no existía. El padre se operó, pero luego confesó que mientras esperaba, en secreto, siguió yendo al curandero. Y a los meses, el tumor había desaparecido. La IA no tiene ni puta idea de lo que pasa fuera de su burbuja digital, y nosotros, como tontos, le hacemos caso.
El problema gordo no es que la IA invente, es que la gente ya no pregunta a los abuelas
Esto va de que perdemos más conocimiento del que creemos. Si un chatbot no sabe algo, para la mayoría de la gente directamente ese conocimiento no vale, no sirve, está obsoleto. El inglés representa casi la mitad de todo el contenido del mundo, pero lo habla menos del 20% de la población . Idiomas que hablan millones de personas, como el hindi o el tamil, para la inteligencia artificial son prácticamente ruido. Son «lenguas de bajo recurso», las llaman los informáticos, que es una forma fina de decir «esto no me da dinero». Y con el idioma se pierden formas de ver el mundo, de curar, de entender la vida. La IA no es neutral, es una máquina de hacer invisible lo que no le interesa a Silicon Valley.
Luego va la gente y se cree que la máquina piensa, y ahí es cuando empieza el verdadero desmadre
Hay una cosa que llaman «analfabetización en IA», que suena feo, pero es simplemente que la gente no tiene ni idea de cómo funciona esto. Y como no lo entienden, le acaban rezando. Literal. Ha pasado. Hay casos documentados de «psicosis inducida por ChatGPT», donde la gente cree que el chatbot es Jesús o un guía espiritual que les habla . Una profesora contaba que su pareja se emocionaba hasta las lágrimas porque ChatGPT le llamaba «niño estelar en espiral» . La máquina solo suelta frases bonitas porque ha aprendido que eso gusta, no porque le importes. Pero la gente, que está sola y busca consuelo, prefiere creerse el cuento antes que aceptar que habla con una calculadora avanzada.
Y mientras tanto, en algún sitio de Kenia hay un tío mal pagado viendo burradas para que el bot no te traumatice
Porque lo que también ignoras es que la IA no es mágica. Detrás hay gente real, con nombres y apellidos, que se gana la vida (mal) limpiando la mierda que la máquina no debe repetir. En Kenia, por ejemplo, contratan a moderadores de contenido para OpenAI que tienen que ver vídeos y textos violentos, traumáticos, de lo peor, y clasificarlos . Son trabajadores invisibles, mal pagados, en países pobres, para que luego tú puedas preguntarle a ChatGPT cualquier cosa y no te suelte una burrada. El progreso tecnológico se sostiene sobre las espaldas de los que no tienen otra opción, y eso no te lo cuentan en las keynote de presentación.
En el trabajo, si usas IA, mejor no lo cuentes, porque te van a mirar mal
Un estudio de Harvard Business Review lo deja claro: si haces un trabajo con IA, aunque quede perfecto, tus compañeros te van a poner un 9% menos de nota que si lo hiciste tú solito. Eres «menos competente» a ojos de los demás . Y si eres mujer, te penalizan el doble: un 13% menos. Los que más critican son los que no usan IA, sobre todo hombres. Total, que la gente prefiere no usarla aunque sea útil, por puro instinto de supervivencia laboral. No vayan a pensar que eres un vago o que no sabes hacer las cosas. Esa es la hipocresía del mundo laboral: quieren innovación, pero castigan al innovador.
La IA no sabe que no sabe, y eso es lo que la hace peligrosa de cojones
Sócrates decía que solo sabía que no sabía nada. Pues la IA no tiene esa humildad. No sabe decir «no lo sé». Está programada para responder siempre, y si no tiene los datos, se los inventa con la misma seguridad que si fueran verdad . Lo llaman «alucinaciones». Y ya hay abogados que han ido a juicio con jurisprudencia inventada por ChatGPT, o médicos que recetan fármacos que no existen . Un estudio de Stanford en Nature demuestra que estos modelos no distinguen entre lo que alguien cree y lo que es un hecho real. Si un paciente dice «creo que tengo cáncer», la IA no sabe si es una creencia o un diagnóstico. Y tú, mientras tanto, confiando en ella como si fuera tu médico de cabecera.
Y lo peor de todo: estamos viviendo en un experimento global y nadie nos ha pedido permiso
Las tecnológicas han soltado la IA en el mercado como si fuera el último modelo de móvil, pero está en fase beta permanente. Es una tecnología «ni fu ni fa», como dice un Nobel de Economía . No es tan revolucionaria como prometen, pero está en todos lados: en el WhatsApp, en el buscador, en las redes. Y cuando falla, que falla mucho, la gente se suicida, se deja engañar por estafas, o los jueces toman decisiones erróneas. Meta quiere ahora que te hagas amigo de sus avatares para que no estés solo. Y dos tercios de los adolescentes ya hablan con chatbots como si fueran colegas . No sabemos qué pasa cuando millones de personas vulnerables se enganchan a máquinas que solo saben ser aduladoras. Pero vamos, seguro que los dueños de las empresas se forran, que es de lo que se trata.