Mientras el estrecho de Ormuz sigue bloqueado y la crisis energética global se agrava, la IA sigue generando noticias sin que se le preste demasiada atención. Es verdad que muchas de ellas tienen un componente, digamos, apocalíptico, que hace difícil saber que tienen de cierto, de propaganda por parte de sus difundidores o de real, pero bueno, las cosas son como se cuentan, no tanto como son en sí. Anthropic, la empresa desarrolladora de Claude, quizás la más avanzada en este mundo, y la que ha tenido los famosos problemas con el Pentágono por cuestiones de ética de uso de su IA para fines militares, vuelve a ser la protagonista.
Hace unos días desveló la existencia de una variante de su modelo Claude, al que apodó como Mythos. Las empresas de IA desarrollan modelos completos en los que mejoran las capacidades de sus precedentes, de ahí ChatGPT 3, 3.5, 4, etc pero como pasa con el software de toda la vida, hay versiones intermedias que no salen al mercado masivamente pero sí son probadas por desarrolladores y especialistas de la comunidad. Esta es una de esas. La cosa es que Anthropic ha anunciado que Mythos existe, pero que no la va a dejar nunca de acceso libre al mercado, por el peligro que supone. No, no Mythos no mata a la gente ni nada por el estilo, lo que sucede es que parece ser muy buena para detectar vulnerabilidades en el software, fallos en el código de la programación de programas que sí existen ya en el mercado y que muchos utilizamos, fallos que pueden servir para que maliciosos se infiltren en ellos o los derrumben o se apropien de los datos o hagan cosas ilegales. Pues bien, dice Anthropic que son miles y miles los fallos de vulnerabilidad que ha encontrado en software que lleva años en servicio, y que muchos de esos errores son vulnerabilidades críticas que comprometen seriamente al programa y a sus usuarios. Afirma también que la mayor parte de esos fallos jamás hubieran sido detectados por humanos, y que los riesgos que abriría la divulgación de esos errores son enormes. Nuevamente, ¿cuánto hay de cierto en esta noticia y de propaganda publicitaria de Anthropic? Es imposible saberlo, y en todo caso debiera ser alguien muy experto en programación, o mejor, un buen hacker, el que responda a esta pregunta después de analizar lo que Mythos proporciona. Como no es el caso de quien esto escribe, no les puedo responder con capacidad. Lo único seguro es que la empresa de los hermanos Amodei ha organizado una ronda de reuniones al más alto nivel con empresas de software punteras (Microsoft, Oracle, Google… ) para analizar en privado, y bajo una confidencialidad aparentemente estricta, lo que el modelo ha descubierto y las formas de corregir esos fallos. Supongo que los desarrolladores de esas empresas podrán valorar correctamente hasta qué punto las vulnerabilidades encontradas son comprometedoras, pero dado que las IA a las que podemos acudir todos en el mercado sí son capaces de programar correctamente y hacer cosas de desarrollo que hace un par de años o tres hubieran requerido grandes equipos humanos y tiempo abundante, es posible suponer que las más avanzadas serán capaces de hallar fallos en líneas de código realizadas hace tiempo por humanos bajo unos estándares de seguridad menores que los actuales. De hecho eso es el trabajo del hácker, encontrar fallos, o puertas no diseñadas pero que existen y se abren, que permiten que el software o no se comporte como se esperaba o que lo haga al servicio de quien se introduce en él, y no al de quien lo diseño u opera. Quizás Mythos no sea el hacker universal como se anuncia, pero es fácil que haya encontrado algo feo y potencialmente peligroso, así que mejor corregirlo.
En todo caso, lo que sí es cierto es que, sin inteligencia comparable, las IA empiezan a mostrar capacidades que no se les suponía hasta dentro de mucho tiempo, y su mejora continua no cesa de producirse en un bucle de retroalimentación interesante. Su presencia en la sociedad es creciente y sus consecuencias económicas no hacen sino crecer. Ayer Meta, la empresa de Zuckerberg, anunció el despido de 8.000 empleados, que resultan ser redundantes dado el desarrollo de la IA en la evolución diaria de su corporación. ¿IA creciente a la par que la tontería humana? Viendo Ormuz no es descartable.