La demanda de Musk contra Altman: ¿fraude o evolución necesaria?

Elon Musk y Sam Altman se enfrentarán en los tribunales en un juicio que podría redefinir el futuro de OpenAI. Musk ha presentado una demanda en la que acusa a Altman de haber transformado ilegalmente la organización, pasando de ser una entidad sin ánimo de lucro a una gigantesca empresa con fines de lucro, valorada en casi un billón de dólares y con planes de salir a bolsa este verano.

Los orígenes de OpenAI y la controversia

Fundada en 2015 por Musk, Altman y otros nueve socios, OpenAI nació como una organización sin ánimo de lucro con el objetivo declarado de "avanzar en la inteligencia digital para beneficiar a la humanidad en su conjunto, sin la necesidad de generar beneficios económicos". En su carta fundacional de 2018, la empresa prometía incluso detener su propio desarrollo si otro proyecto alineado con sus valores y seguro lograba alcanzar la Inteligencia General Artificial (AGI) antes que ellos.

Sin embargo, Musk alega en su demanda que, en 2017, Altman ya planeaba convertir OpenAI en una empresa con fines de lucro para recaudar fondos y adquirir el poder computacional necesario para desarrollar sus modelos de IA. Según OpenAI, Musk habría aceptado inicialmente esta transformación, pero exigiendo "control absoluto" como único CEO y una fusión con Tesla. Tras un enfrentamiento con Altman por el control de la compañía en 2018, Musk abandonó el consejo de administración, argumentando posibles conflictos de interés como CEO de Tesla.

Las acusaciones de Musk y las respuestas de OpenAI

Musk exige en su demanda que los miles de millones generados por la división con fines de lucro sean devueltos a la fundación sin ánimo de lucro, OpenAI Foundation. Además, pide la expulsión de Altman de los equipos directivos tanto de la fundación como de la empresa con fines de lucro.

OpenAI defiende su transformación argumentando que, para desarrollar modelos avanzados de IA, era necesario recaudar capital y acceder a recursos computacionales que solo una estructura con fines de lucro podía proporcionar. La empresa señala que Musk estuvo de acuerdo con este cambio en 2017, aunque con condiciones que finalmente no se cumplieron.

De la misión humanitaria a las polémicas actuales

Lo que comenzó como un proyecto para "beneficiar a la humanidad" ha derivado en una empresa que, según críticos como la periodista tecnológica Karen Hao, representa "la mayor amenaza para la democracia vista hasta la fecha". OpenAI ha sido vinculada a centros de datos con un consumo energético desproporcionado, un chatbot involucrado en tiroteos masivos y un acuerdo con el Departamento de Defensa de EE.UU. para el desarrollo de tecnología militar.

Tras las críticas recibidas, Altman anunció en marzo de 2026 una enmienda a su acuerdo con el Pentágono para evitar el uso de su tecnología en "vigilancia doméstica de ciudadanos estadounidenses". Sin embargo, la percepción pública sobre OpenAI sigue siendo controvertida, especialmente tras la publicación de un documento interno en el que la empresa reconocía la necesidad de implementar "redes de seguridad" ante el avance de la IA, incluso cuando supere las capacidades humanas.

"OpenAI ha pasado de intentar beneficiar a la humanidad a hacer que la humanidad limpie sus propios desastres."

¿Qué está en juego en el juicio?

El resultado de este juicio podría tener implicaciones profundas para el futuro de OpenAI y, por extensión, para el desarrollo de la inteligencia artificial a nivel global. Si el tribunal falla a favor de Musk, la empresa podría verse obligada a desmantelar su estructura actual, devolver fondos y redefinir su modelo de negocio. Por otro lado, una victoria de Altman y OpenAI consolidaría su posición como líder en el sector, pero también reafirmaría la tendencia de las grandes tecnológicas a priorizar el beneficio económico sobre los objetivos originales de beneficio social.

Mientras tanto, el mundo observa cómo dos de los nombres más influyentes en la tecnología se enfrentan en los tribunales, en una batalla que va más allá de los intereses personales: se trata de definir qué tipo de futuro queremos para la inteligencia artificial.