Ganarte la vida como “jefe de alerta” de OpenAI podría ser un empleo terrible
“Es una posición estresante, y casi de inmediato la persona se sumergirá en lo más profundo”, escribió en X el CEO de OpenAI Sam Altman al anunciar que buscan a un “jefe de alerta”.
El salario anual llegará a los US$555.000, según el aviso de OpenAI, y el jefe de alerta debe “ampliar, fortalecer y guiar” el programa actual del departamento de sistemas de seguridad de OpenAI. Este aspecto de OpenAI construye las salvaguardas que en teoría hacen que los modelos de OpenAI “se conduzcan como se espera que lo hagan en el mundo real”.
¿Están diciendo que los modelos de OpenAI se comportan como se lo espera en el mundo real? En 2025, ChatGPT siguió alucinando en los aspectos legales y atrajo cientos de quejas, que incluyen las que se refieren a disparar crisis de salud mental en los usuarios, además de que convirtió imágenes de mujeres vestidas en deepfakes en bikini. Sora debió eliminar la función de crear videos de figuras como Martin Luther King Jr. porque los usuarios abusaban de figuras históricas respetadas haciendo que digan básicamente cualquier cosa.
Cuando los casos por problemas relacionados con productos de OpenAI llegan a los tribunales, como sucedió con la demanda presentada por la familia del Adam Raine a quien supuestamente ChatGPT le dio consejos que llevaron a su muerte, hay un argumento legal de que los usuarios hicieron uso abusivo de los productos de OpenAI. En noviembre una presentación de los abogados de OpenAI citó violaciones a las reglas como causa potencial de la muerte de Raine.
Ya sea que creas en el argumento del abuso o no, por cierto, forma gran parte de cómo OpenAI entiende lo que hacen sus productos en la sociedad. Altman reconoce en su posteo de X sobre el puesto de jefe de alerta que los modelos de la compañía pueden tener impacto en la salud mental de las personas y que puede haber vulnerabilidades en la seguridad. Dice que “estamos entrando en un mundo donde hace falta un entendimiento más centrado en sus insinuaciones para medir cómo puede abusarse de esas capacidades para poder limitar estas desventajas, tanto en nuestros productos como en el mundo de manera que todos podamos disfrutar de los enormes beneficios”.
Después de todo, si el objetivo es puramente el no causar daño alguno, la mejor forma de hacerlo sería sacar del mercado a ChatGPT y Sora.
El jefe de alerta de OpenAI será alguien que se ocupe de enhebrar la aguja para «estar siempre listos en la estrategia de preparativos ante cualquier situación”, buscando cómo evaluar los modelos para mitigar toda capacidad o función no deseadas. El aviso dice que la persona deberá “desarrollar el marco de alerta y preparativos a medida que surjan nuevos riesgos, capacidades o expectativas externas”. Eso significaría buscar nuevas potenciales formas en que los productos de OpenAI pudieran perjudicar a las personas o a la sociedad, con formas de hacer que los productos sigan existiendo pero mitigando los riesgos al punto de que OpenAI no pueda considerarse legalmente responsable de los inevitables “problemas” futuros.
En una compañía a la que le va bien esta posición y tarea sería ya algo bastante aterrador, pero en el caso de OpenAI, se requieren pasos drásticos para aumentar los ingresos y lanzar al mercado productos de avanzada. En una entrevista del mes pasado Altman dijo algo que sonó a que quiere llevar los ingresos de su compañía desde los US$13 mil millones al año de hoy, US$100 mil millones en menos de dos años. Dijo Altman que “el negocio de dispositivos de consumo será algo importante” para su compañía y que “la IA que logre automatizar la ciencia creará un valor enorme”.
De modo que si te gustaría ocuparte de “diseñar formas de mitigar” problemas en las nuevas versiones de los productos existentes de OpenAI, junto con las plataformas o dispositivos que todavía no existen pero que harán cosas como “automatizar la ciencia” mientras el CEO te respira en la nuca para que su empresa tenga un ingreso anual similar al de Walt Disney dentro de dos años, entonces el puesto de la jefatura de alerta podría ser para ti.