«El despido y la recontratación de Sam Altman ha sido la noticia empresarial y del sector de la IA más importante del año. Aquí en Estados Unidos ha tenido portadas diarias en casi todos los principales medios de comunicación.
Hasta tal punto que, lamentablemente, ha eclipsado por completo la Cumbre Mundial sobre Seguridad de la IA, celebrada en el Reino Unido, que puso por primera vez los riesgos extremos de esta tecnología en el centro de las consideraciones políticas gubernamentales».
Lo dice, en declaraciones para El Independiente, Stuart J. Russell, catedrático de Informática y catedrático Smith-Zadeh de Ingeniería en la Universidad de California, Berkeley. Pero en realidad este es el sentir mayoritario entre los expertos mundiales sobre el terremoto que esta semana ha sacudido Silicon Valley. Y que ha pillado a todos con la guardia baja.
Sam Altman, cofundador y CEO de OpenAI, la empresa que desarrolló ChatGPT y que lidera el sector de la IA, fue despedido por sorpresa para ser contratado de nuevo poco después. En medio, cinco días que parecieron eternos, con constantes giros de guion que sacudieron el panorama tecnológico y empresarial a nivel mundial. Y que dejan muchas incógnitas.
Pero para entender la importancia de lo que ha pasado, primero hay que comprender quién es Sam Altman. «A nivel personal es muy parecido a Mark Zuckerberg -el creador de Facebook-. Tiene ese perfil de ingeniero de Silicon Valley muy centrado en conseguir desarrollar la mejor tecnología. Yo lo conocí cuando vino a Madrid, y me pareció brillante y con las ideas súper claras. Parecía un robot«, afirma Miguel Ángel Román, cofundador del Instituto de Inteligencia Artificial.
Román tuvo la oportunidad de presenciar las dos conferencias que Altman impartió en España en mayo de este año, en una visita express a nuestro país en la que también tuvo tiempo de reunirse con Pedro Sánchez. La primera fue una charla privada para desarrolladores. Y la segunda, un encuentro que mantuvo con estudiantes del Instituto de Empresa.
«Quería conocer la opinión de los desarrolladores de herramientas que están usando la tecnología de OpenAI como base. Nos preguntó qué opinábamos, qué le pedíamos, hacia dónde nos gustaría evolucionar… Estaba muy preocupado sobre el impacto que tendría en la sociedad todo esto, y en concreto en el ámbito de España», relata el experto.
Un líder para sus empleados
No obstante, Román considera que la fama que ha adquirido Altman ha tenido que ver con la popularidad que ha ganado su tecnología en los últimos meses, más que con un carisma especial a nivel personal. «Que sea mediático está relacionado con sus logros, porque ha conseguido dominar la IA incluso por encima de Google, que tiene un departamento de investigación de miles de personas. Es extremadamente inteligente, por eso ha llegado más lejos con mucho menos», asegura.
Pero a pesar de todo, Román se muestra convencido de que «Altman es sólo la cara visible de la empresa». Por detrás, asegura, «hay mucha gente que ha contribuido a llevar la IA a cotas más lejanas». En concreto, un equipo de más de 700 personas, la mayoría de las cuales salió en su defensa cuando fue despedido.
«El hecho de que casi todos los empleados de OpenAI declararan que dimitirían si Altman no era readmitido es una prueba clara de su importancia para la empresa«, afirma Russell. «Yo no puedo hablar de él como programador, investigador o innovador, porque no sabemos hasta qué punto ha estado involucrado en esos aspectos. Pero como empresario ha sido ciertamente eficaz», apunta el experto.
Según explica, jugó un papel clave en negociar la inversión de Microsoft, que permitió a OpenAI «mantenerse a flote» en 2018 y 2019, cuando de lo contrario podría haberse arruinado. Y, a su juicio, ha sido la estrategia empresarial de la compañía, con Altman al mando, la que ha conseguido que ChatGPT se convierta en el nombre «familiar» cuando hablamos de IA. «OpenAI siguió adelante mientras Google se mantenía cautelosamente al margen. Y eso ha dado sus frutos», resume Russell.
El poder de OpenAI
«El hecho de que todos hayamos asistido a este drama palaciego del despido de Altman como espectadores y no podamos hacer gran cosa demuestra cuánto poder tienen. Es un peligro para la democracia», asegura Mark Coeckelbergh, filósofo y profesor en la Universidad de Viena (Austria) y en el Instituto de Filosofía de la Academia de Ciencias de Praga (República Checa).
Y es que, a falta de una regulación sobre la IA, las empresas desarrolladoras tienen el control total. Son ellas las que pueden decidir en qué se convertirá esta tecnología, y ahora que se ha erigido como el negocio del momento sólo cabe esperar que pisen el acelerador. En ese contexto, la figura de Altman como CEO de la compañía líder del sector cobra especial protagonismo. Hoy por hoy, estamos en sus manos.
Eso es, precisamente, lo que preocupa a Coeckelbergh: «La IA puede contribuir al bien común, pero si permitimos que sólo se desarrolle dentro del capitalismo al estilo estadounidense, entonces es poco probable que lo haga. Tenemos que decidir si permitimos que personas como Altman tomen las decisiones sobre lo que es bueno para la humanidad. Porque los CEOs y los multimillonarios de las grandes tecnológicas elegirán una definición que se ajuste a sus intereses, y el resto seguiremos siendo espectadores impotentes de lo que ocurra en la corte de los reyes de la IA».
Pero no hace falta esperar para ver el poderío de OpenAI. Lo explica Russell: «ChatGPT, basado en GPT-3.5, fue el primero en adquirir una gran base de usuarios a nivel mundial, y eso hizo que la conversación cambiara en muchos sentidos. Pero si bien ChatGPT y sus primos definitivamente no son objetos intelectuales con forma humana, creo que es justo decir que son parecidos a los humanos: son superficiales, propensos a errores, extrañamente creativos, pueden escribir en cualquiera de los miles de estilos y tienen muchísimo conocimiento, porque han leído miles de textos más que cualquier humano».
El experto se muestra convencido de que, a medida que esta tecnología se extienda a más idiomas, todas las personas conectadas a Internet tendrán acceso a ella. «Es como si hubiéramos añadido cinco mil millones de objetos intelectualmente humanos al mundo en el espacio de unos pocos meses. Y es un anticipo de cómo sería vivir en un mundo donde podemos aprovechar un suministro ilimitado de inteligencia. En ese sentido han proporcionado una valiosa llamada de atención», señala Russell.
En medio de todo, está por ver si finalmente la filial de OpenAI con ánimo de lucro acaba devorando a la matriz original de la empresa, que en sus estatutos establecía como objetivo desarrollar una IA que beneficiara a la humanidad. El regreso triunfal de Altman podría acercar esta posibilidad, porque, según parece, él se decanta más por acelerar el desarrollo de esta tecnología. Todo lo contrario que Emmett Shear, que había sido nombrado nuevo CEO tras la salida de Altman, y aseguraba que la IA era un riesgo para la humanidad y debíamos frenar antes de que fuera demasiado tarde. Nunca sabremos qué hubiera sido de OpenAI y de la IA con él al mando.
«Lo que los recientes acontecimientos han demostrado es que incluso cuando una empresa está legalmente obligada defender los intereses de la humanidad, estos pueden verse superados por consideraciones financieras. Y a eso hay que sumarle que en el caso de otras empresas, el interés superior de la humanidad no figura en absoluto en sus obligaciones legales», explica Rusell.
«Esto invalida por completo la idea de que la autorregulación voluntaria sea suficiente para garantizar la seguridad de los sistemas de IA sobrehumanos. No cabe duda de que sólo los gobiernos pueden proteger el interés superior de la humanidad, exigiendo a los desarrolladores que demuestren que sus sistemas son seguros, igual que se lo exigimos a los fabricantes de aviones, a las farmacéuticas y a las nucleares», añade el profesor.
Consecuencias del terremoto
Hace solo unos días el Financial Times publicó un extenso artículo donde se detallaban los entresijos de la salida y del retorno de Altman a OpenAI. El diario británico pudo hablar con varias personas que habían sido testigos directo de todo el proceso, que de manera anónima dieron detalles interesantes.
«El superpoder de Altman es conseguir que la gente se ponga de su parte, dar forma a las narrativas, impulsar las situaciones para que adopten la forma que mejor le convenga», apuntaba una de sus fuentes. Y en esa línea, otra comentaba que la junta «probablemente subestimó» la fuerza de la «campaña de relaciones públicas» de Altman.
Sea como fuere, ya está de vuelta en su puesto. «La única factura que les va a pasar todo esto es que han perdido una semana de trabajo. Es como si todos se hubieran ido de vacaciones, porque no ha dado tiempo a que se descomponga nada», asegura Román. «Dicho esto, Altman sale totalmente reforzado. Todos los trabajadores de OpenAI salieron en masa a apoyarle, y estaban dispuestos a irse con él. Y ahora han salido del consejo de administración quizás las personas que eran más contrarias a él, y pudieron estar detrás de este golpe. Así que va a tener todo el apoyo», añade.
En el horizonte, una pregunta. ¿Cómo de diferente sería la futura historia de la IA si Altman se hubiera quedado en Microsoft?. Para Russell, la respuesta es que depende. «Según tengo entendido, OpenAI sigue rigiéndose por los estatutos que establecen que la entidad original sin ánimo de lucro controla la filial con ánimo de lucro. El consejo ha sido sustituido, pero las reglas no han cambiado. En ese sentido, es mejor -desde el punto de vista del los intereses de la humanidad- que continúe haciendo su trabajo en OpenAI dentro de ese marco, en lugar de en Microsoft, donde el marco legal es el de una empresa con ánimo de lucro. Pero si el nuevo consejo de OpenAI ignora los estatutos, no habrá mucha diferencia», concluye el experto.
Tomado de https://www.elindependiente.com/