PROLOG: Wenn der Traum von der Rettung der Welt zur Dystopie wird

Im Jahr 2015 begann eine Geschichte, die wie aus einem Science-Fiction-Roman wirkte: Eine Gruppe brillanter Köpfe, darunter Elon Musk, Ilya Sutskever und Sam Altman, gründete OpenAI. Das Ziel: Eine sichere künstliche Intelligenz erschaffen, die allen Menschen zugutekommt. Kein Silicon-Valley-Startup, das Milliardengewinne jagte. Keine Aktionäre, keine Boni. Nur eine Mission: der Menschheit dienen. Doch zehn Jahre später wirft eine explosive Enthüllung, bekannt unter dem Namen The OpenAI Files, ein Licht auf eine dunkle Parallelwelt hinter den Kulissen.

Die Plattform http://www.openaifiles.org, die am 18. Juni 2025 online ging, ist mehr als nur ein Leak. Es ist eine Sammlung interner Memos, Zeugenaussagen, Governance-Analysen, vertraglicher Enthüllungen und einem Manifest für Reform. Und sie kommt von innen. Von ehemaligen Führungskräften. Von Menschen, die OpenAI mit aufgebaut haben. Was sie erzählen, klingt wie aus einer HBO-Serie: Ein CEO, der Macht zentralisiert. Eine Organisation, die ihre eigenen ethischen Prinzipien verrät. Mitarbeiter, die mit juristischen Maulkörben bedroht werden. Und eine Menschheit, die möglicherweise blind einem Unternehmen vertraut, das die nächste Superintelligenz kontrollieren könnte.


KAPITEL 1: Vom Non-Profit zur Gewinnmaschine

OpenAI wurde einst als gemeinnützige Organisation gegründet. Die zentrale Prämisse: Gewinne sollten „gecapped“ sein, also gedeckelt. Wer investierte, sollte nicht Milliarden verdienen, sondern ein vertretbares Rendite-Maximum. Der große Unterschied zu Google, Facebook und Co: OpenAI sollte nie dem Shareholder Value dienen, sondern dem Gemeinwohl.

Doch die OpenAI Files zeigen detailliert, wie dieser Grundsatz schleichend demontiert wurde. Ab 2019 entstand ein komplexes Konstrukt: Die „capped-profit“-Tochter OpenAI LP wurde zur gewinnorientierten Trägergesellschaft. Die Non-Profit-Mutter, eigentlich Kontrollinstanz, verlor systematisch Einfluss. Dokumente zeigen, dass bis 2023 entscheidende Governance-Rechte verschwanden. Wer kontrolliert das Kapital? Die Antwort: nicht mehr die gemeinnützige Instanz.

Ein internes Memo aus dem Jahr 2025 spricht Klartext: „Das capped-Profit-Modell ist faktisch ausgesetzt.“ Investoren erhalten zunehmend direkten Zugang zu Milliardenpotenzialen. Microsoft, das über 10 Milliarden Dollar investierte, erhielt nicht nur Vorabzugang zu GPT-4 und Co. – sondern laut Leak auch Exklusivrechte auf strategischer Ebene.


KAPITEL 2: Die Rolle von Sam Altman

Im Zentrum der Kritik steht eine Person: CEO Sam Altman. Charismatisch, mediengewandt, vernetzt. Doch hinter der Fassade des Visionärs zeichnen die OpenAI Files ein anderes Bild. Mehrere ehemalige Top-Funktionäre werfen ihm Manipulation, Irreführung und Machtmissbrauch vor.

Ilya Sutskever, Co-Gründer und lange wissenschaftlicher Kopf von OpenAI, wird in internen Protokollen mit den Worten zitiert: „I don’t think Sam is the guy who should have the finger on the button for AGI.“ Diese Aussage, so berichtet die Plattform, stammt aus einem vertraulichen Vorstandsgespräch im Zuge von Altman’s zwischenzeitlicher Absetzung im November 2023.

Die Geschichte dieser Absetzung – kurz, dramatisch, bizarr. Der damalige Aufsichtsrat entband Altman plötzlich von seinen Aufgaben. Die Begründung war nebulös: Man habe das Vertrauen in seine Fähigkeit verloren, „die Mission aufrechtzuerhalten“. Wenige Tage später war Altman zurück. Mehr Macht denn je. Mit einem neu formierten Board, das loyaler schien als zuvor.

Die OpenAI Files zeigen: Diese Machtumverteilung war nicht zufällig. Ein Dokument enthält ein Zitat von Chief Scientist Jakub Pachocki: „Sam will control the board, the mission, the future.“


KAPITEL 3: Mitarbeiter unter Druck

Es bleibt nicht bei strukturellen Enthüllungen. Auch auf menschlicher Ebene offenbaren die Leaks ein Klima der Angst. Whistleblower berichten von juristischen Knebelvertragen, sogenannten NDA/ND-Verträgen (Non-Disclosure/Non-Disparagement Agreements). Wer ging, wurde gezwungen zu schweigen. Wer sprach, sollte zahlen. In einem besonders krassen Fall soll einer Mitarbeiterin gedroht worden sein, ihre gesamten Mitarbeiter-Anteile in Millionenhöhe zu verlieren, wenn sie öffentlich Kritik übe.

Die Organisation, die einst Transparenz versprach, wird plötzlich zum Blackbox-Konzern mit Maulkorbpolitik. „Wir haben ethisch trainiert, aber intern autokratisch gehandelt“, heißt es in einem Schreiben einer nicht genannten Quelle.

Ein anderer Mitarbeiter sagt aus: „Es war nicht nur das Produkt, das besser wurde. Auch die Angstkultur wuchs.“


KAPITEL 4: Die Wahrheit über die Superintelligenz

Ein zentrales Thema der OpenAI Files ist das sogenannte Superalignment-Team. Dieses Team wurde gegründet, um sicherzustellen, dass eine zukünftige Superintelligenz – das berüchtigte Artificial General Intelligence (AGI) – den Interessen der Menschheit folgt. Doch auch hier: interner Zerfall.

Sutskever und Jan Leike, einst Co-Leiter des Teams, verließen 2024 das Unternehmen. Ihr Abgang war nicht freiwillig, so die Leaks. Interne Kommunikation zeigt: Ihre Vorschläge wurden systematisch ignoriert. Sicherheitsbedenken – übergangen. Ressourcen – gestrichen. Kommunikation mit dem Board – unterdrückt.

In einer dramatischen Mail heißt es: „We are building God without brakes.“


KAPITEL 5: Die neue Machtstruktur

Heute ist OpenAI ein de-facto-Monopolist im Bereich generativer KI. Mit GPT-4o dominiert das Unternehmen den Markt für KI-Modelle, Sprachschnittstellen, Codierungsunterstützung und sogar visuelle KI. Gleichzeitig wurde eine neue Struktur etabliert:

  • Ein Aufsichtsrat, der laut Files faktisch von Altman kontrolliert wird.
  • Ein Finanzierungskreislauf, in dem Microsoft nicht nur Investor, sondern strategischer Partner ist.
  • Eine Steuerung der Kommunikation nach außen, in der kritische Stimmen mundtot gemacht werden.

Im Leak heißt es: „The new OpenAI is not a lab. It’s an empire.“


KAPITEL 6: „Vision for Change“ – Das Manifest

Die Whistleblower belassen es nicht bei der Kritik. Sie präsentieren konkrete Vorschläge zur Reform. Das Kapitel „Vision for Change“ gliedert sich in drei Hauptbereiche:

1. Responsible Governance

  • Wiederherstellung der Machtbalance zwischen der Non-Profit-Mutter und der kommerziellen Tochter.
  • Transparente Besetzung des Boards durch unabhängige Ethik- und Technologie-Expert*innen.
  • Einführung von Public Oversight durch externe Institutionen.

2. Ethical Leadership

  • Festlegung von Mindeststandards für Kommunikation und interne Ethik.
  • Offenlegung aller sicherheitsrelevanten Entscheidungen und Risiken.
  • Schutz für Whistleblower durch ein internes, unabhängiges Ombudssystem.

3. Shared Benefits

  • Mechanismen zur Gewährleistung, dass Gewinne aus AGI allen Menschen zugutekommen.
  • Verpflichtung zur freien Bildungs- und Forschungsteilgabe.
  • Stopp von Exklusivpartnerschaften mit Tech-Giganten.

KAPITEL 7: Internationale Reaktionen

Seit der Veröffentlichung der OpenAI Files sind Regierungen weltweit in Alarmbereitschaft. Die EU fordert umfassende Prüfungen. In den USA beruft das Justizministerium eine Ethikkommission ein. NGOs wie AlgorithmWatch und das Future of Life Institute sprechen von einer „historischen Enthüllung“.

China hingegen nutzt die Leaks propagandistisch: „Der Westen verliert die Kontrolle über seine eigenen Maschinen.“

Ein israelischer KI-Experte sagt im Guardian: „Wenn wir nicht jetzt handeln, wird die AGI von wenigen kontrolliert werden.“


EPILOG: Was bleibt?

Die OpenAI Files sind mehr als ein Leak. Sie sind ein Spiegel unserer Zeit. Einer Zeit, in der Ideale mit Milliarden kollidieren. In der Transparenz nur solange gilt, wie sie nicht stört. Und in der ausgerechnet jene, die die Menschheit retten wollten, möglicherweise zu ihrer größten Gefahr werden.

Der letzte Satz aus dem Dokument „Vision for Change“ lautet:

„If we don’t fix the system now, we will have built a god that listens to shareholders, not to humans.“

Ob dieser Satz als Warnung oder Nachruf endet, liegt nun bei uns.



Entdecke mehr von Der BROWNZ Blog

Melde dich für ein Abonnement an, um die neuesten Beiträge per E-Mail zu erhalten.