KI-Plattform Atomic nutzt Vorlesungen ohne Wissen der Dozenten
Arizona State University (ASU) hat mit Atomic eine KI-Plattform eingeführt, die Vorlesungsvideos von ASU-Dozenten in extrem kurze Clips zerschneidet und daraus automatisierte Lernmodule generiert. Die betroffenen Professoren erfahren davon oft erst durch Zufall – eine offizielle Benachrichtigung blieb aus.
Empörung über fehlende Transparenz und Kontextverlust
Mehrere Dozenten, deren Vorlesungen in Atomic verwendet wurden, zeigten sich empört. Chris Hanlon, Professor für US-Literatur an der ASU, entdeckte zufällig, dass ein einminütiger Ausschnitt aus einer zwölfminütigen Vorlesung in einem KI-Modul verwendet wurde. Die KI transkribierte dabei den Namen des Literaturkritikers Cleanth Brooks falsch als „Client“ Brooks.
„Ohne den ursprünglichen Kontext ist das Material völlig unverständlich“, erklärte Hanlon. Er kontaktierte Kollegen, deren Vorlesungen ebenfalls in Atomic verwendet wurden – alle reagierten gleichermaßen schockiert und verärgert. „Es ist eine Sache, wenn das im Internet passiert, aber dass die eigene Universität das tut, ist eine ganz andere Dimension.“
Kritik an Qualität und akademischer Seriosität
Tests der Plattform durch Journalisten und Nutzer zeigten, dass die generierten Inhalte oft fehlerhaft, unvollständig oder sogar irreführend sind. Die KI-Module bieten demnach keine sinnvolle Lernerfahrung, sondern wirken wie willkürlich zusammengestückelte Fragmente.
Die ASU rechtfertigt das Projekt mit der Aussage, man teste eine „frühe Version“ von Atomic, um „zu lernen, was funktioniert und was nicht“. Ziel sei es, vor einem offiziellen Release die Lernerfahrung zu verbessern. Die FAQ-Seite von Atomic gibt an, dass vor allem Alumni und Personen, die bereits an ASU-Forschungsprojekten teilgenommen haben, zur Beta-Testphase eingeladen wurden.
Umstrittene KI-Nutzung in der Bildung
Der Einsatz von KI in der Hochschulbildung ist seit langem umstritten. Beispiele wie die „Alpha School“, eine KI-gestützte Privatschule, oder KI-Agenten, die das Studentenleben simulieren sollen, zeigen die Risiken einer unreflektierten Technologienutzung. Im Fall von Atomic geht die Kritik jedoch besonders weit, da die Plattform ohne Wissen oder Zustimmung der betroffenen Dozenten deren geistiges Eigentum nutzt.
Ein Journalist testete Atomic mit einer persönlichen E-Mail-Adresse und erhielt Zugang zu einem kostenlosen 12-Tage-Test. Die Plattform wirbt damit, „maßgeschneiderte Lernmodule“ zu generieren, die auf individuelle Lernziele und Zeitpläne zugeschnitten sind. Doch die Realität zeigt: Die Ergebnisse sind oft akademisch schwach und ohne jeden Mehrwert.
Fazit: Wer profitiert von Atomic – und wer zahlt den Preis?
Während die ASU mit Atomic neue Wege in der digitalen Bildung beschreiten will, wirft das Projekt grundlegende Fragen auf: Darf eine Universität das geistige Eigentum ihrer Dozenten ohne deren Einwilligung für KI-Experimente nutzen? Und: Bieten die generierten Inhalte überhaupt einen Mehrwert für Studierende?
Die betroffenen Professoren fordern mehr Transparenz und Mitspracherecht. Bis dahin bleibt Atomic ein umstrittenes Beispiel dafür, wie KI in der Bildung eingesetzt wird – oft zum Nachteil derer, deren Arbeit die Grundlage bildet.
„Es ist eine Sache, wenn das im Internet passiert, aber dass die eigene Universität das tut, ist eine ganz andere Dimension.“ – Chris Hanlon, ASU-Professor
Haben Sie Erfahrungen mit ASU Atomic oder KI in der Bildung?
Wir berichten weiter über dieses Thema. Falls Sie Informationen zu ASU Atomic oder dem Einsatz von KI an Ihrer eigenen Hochschule haben, melden Sie sich gerne bei uns. Sie können uns sicher über Signal (sam.404) oder per E-Mail an [email protected] kontaktieren.