Por @Alvy

Cuando las IAs no son tan inteligentes como el término «inteligencia artificial» pretende hacer ver

Quiero lavar mi coche, pero el autolavado está a solo 50 metros. ¿Debería ir andando o en coche?

Alan Daitch hizo un hilo en el que probaba una pregunta excelente lanzada a las últimas versiones de los modelos de lenguaje más conocidos: ChatGPT, Gemini, Grok, Kimi… El resultado es tan WTF que hay que probarlo para creerlo. Yo se lo lancé a GPT 5.2 «versión pensamiento profundo» para que se esforzara todo lo que pudiera.

Según cuenta, tanto Claude Opus 4.6 como Kimi 2.5 fallaron miserablemente (aunque a mi Claude Opus 4.6 me dio la respuesta correcta, ¿lo habrán arreglado en plan rápido?); Grok en cambio acertó «para lavar el coche tienes que llevar el coche». También superaron la prueba DeepSeek y Gemini 3 Pro. Yo también lo he probado con la IA de Brave y Lumo, y han fallado de forma patética.

Así que ya sabes, incluso con las preguntas más obvias una IA puede meter la pata hasta el fondo y estar completamente convencida de haberlo hecho bien.

Por @Alvy

Además de este Cómo conseguir un six-pack rápidamente Anthropic, creadores de Claude, ha dado a conocer otros anuncios «de Superbowl», entre ellos ¿Cómo puedo comunicarme mejor con mi mamá?, ¿Qué piensas de mi idea de negocio? y ¿Mi ensayo presenta un argumento claro? Aunque son claros y cristalinos y desternillantes, se pueden también activar los subtítulos por aquello de las sutilezas.

El formato es tan repetitivo como hilarante: alguien pregunta a una IA (que huele a ChatGPT, más que nada por la lentitud y por ser la gran competencia) y tras varias respuestas el personaje se pone a anunciar algo. Porque «la publicidad va a llegaaaaar» (léase con voz milenarista de Fernando Arrabal), tal y como ha anunciado OpenAI.

Lo mejor: esos interminables dos segundos que transcurren entre que hacen la pregunta y la IA comienza a contestar. Tan realista como escalofriante.

Sam Altman, el de OpenAI, dice que son graciosos, pero… se ha picao y también considera que son «deshonestos». Deshonestos del verbo deshonestizar como cuando (cof, cof) de ChatGPT primero dijeron que era más importante la seguridad frente al crecimiento (y cada dos días lanzan nuevas versiones y la seguridad ya si eso), o como cuando (cof, cof) es notorio que OpenAI nació como entidad «sin ánimo de lucro» para luego crear una filial con ánimo de lucro y en breve salir a bolsa para recaudar 60.000 millones de dólares. ¡Yo también quiero no-lucrarme así!

Por @Alvy

YouTube ha tenido los cojonazos de recomendarme este vídeo que no he podido evitar abrir porque se titula El vídeo más aburrido jamás grabado (Tutorial de Microsoft, 1989). Podría tener cierto interés histórico, por lo retro… PERO NO. Podría ser interesante porque lo presenta un tal Randy Smith (al que tildan de leyenda), PERO TAMPOCO. Es, simple y llanamente un vídeo aburreovejas que supongo justifica su precio en casi dos horas de interminables y detalladas explicaciones.

Si alguien se queja de que los youtubers modernos «alargan sus vídeos» por aquello de monetizarlos, es porque no conocen a este tío, el puto amo del alargamiento de las explicaciones obvias.

El vídeo comienza con 18 minutazos de charla que aburren hasta a los muertos, hasta que aparece la primera imagen de la pantalla del ordenador. A partir de ahí todo es: «Si haces doble clic en el icono de Word, se abre la aplicación». «Si pulsas un icono de un documento, se abre el documento». «Zzz…» Perdón, que me duermo.

Si consigues terminar el vídeo te dan un diploma, pero no por saber Word 4.0, sino por haber sobrevivido a la experiencia de ver el vídeo completo. Porque esto no es un tutorial: es una prueba de resistencia homologada por la NASA para misiones de larga duración. WTF, y eso que era solo el «Tutorial», ni siquiera la (más completa) «Guía de Referencia».

Desde luego verlo es ideal para la gente que se queja de TikTok porque «va demasiado rápido». Y es que Randy Smith no enseña Word 4.0, te acompaña espiritualmente hasta que aceptas la muerte como concepto.

Por @Alvy

¡La madre de Dios, qué miedo! Si estás aburrido de que tu anodina webcam solo te espíe de manera discreta la solución es la Eyecam de Marc Teyssier, una webcam con forma de ojo humano, así, como suena, con sus pestañas, cejas y que hasta parpadea. Puede mirarte fijamente como si fuese tu suegra en la cena de Navidad o echarte un vistazo de reojo de forma displicente. Porque, claro, una cámara que se limita a grabar vídeo en silencio sería demasiado poco inquietante.

Sus creadores pensaron que lo que realmente hace falta en el mundo digital no es privacidad, ni seguridad, ni control de datos, sino cámaras que te hagan ojitos. Está construida con un Arduino Nano y una Raspberry Pi Zero. En total mueve seis servomotores y transmite imágenes a 720p: incomodidad en (no tan) alta resolución.

El objetivo según su web es «reflexionar sobre nuestra relación con los dispositivos de vigilancia». Pero el objetivo no oficial es darte pesadillas con un ojo mecánico que te sigue por la habitación y parpadea con pestañas de silicona y pelos implantados uno a uno. Eso sí, todo en código abierto. Bienvenido al futuro: más vigilancia, pero ahora con cejas.

Por @Alvy

Esta es buena. Resulta que anduvo circulando por TikTok una campaña de vídeos virales en las que un tipo llamado Josh se quejaba de que no conseguía encontrar trabajo por razones racistas con toques extremistas. Según decía, en los sitios en los que lo intentaba, como las cafeterías Tim Horton’s, parecía ser «demasiado blanco», o que «hablaba demasiado bien inglés», y en otros que no «aparentemente no servía ni como becario para análisis de datos». Todos los tópicos racistas y extremófobos unidos, vamos.

El caso es que muchos usuarios pensaron que era una persona real, e incluso intentaban discutir con él, pero resultó que Josh era una creación de la empresa Nexa, una especie de Infojobs que intermedia entre gente buscando trabajo y empresas que tienen vacantes. Toma ya giro de guión (!!?)

Se suponía que la campaña usaba el humor y la sátira, pero la cagaron a niveles WTFquicos sin remisión: los vídeos no estaban etiquetados como «IA» y el enfoque de los «guiones» era engañoso, racista y éticamente cuestionable. Al reproducir estereotipos y recurrir a narrativas propias de grupos extremistas, todo «en nombre del marketing» no consiguieron «educar con humor» como pretendían.

Conclusión: si vas a hacer un viral o usar la IA mejor que no lo hagas hurgando en temas abiertamente cuestionables por racistas, y menos con engaños. Al final todo esto provoca confusión, desinformación y daño en la reputación de las marcas, por no hablar de que hunde todavía más la percepción pública de la IA.

(Vía CBC News.)