September ist der Monat der Suizidprävention und Aufklärung, und lately scheint jeden Monat der Monat der Aufklärung über KI zu sein. Diese beiden Dinge sind auf tragische Weise zusammengekommen, mit Aktuelle Geschichten über KI-Begleiter, die bei Teenagern Suizidgedanken fördern.
GenAI-Tools werden als Assistenten, Copiloten, Mentoren und hilfreiche „Freunde“ für Studierende vermarktet – stets verfügbar, um Fragen zu beantworten, das Selbstvertrauen zu stärken und sogar emotionale Unterstützung zu bieten. Theoretisch klingt das positiv. In der Praxis sind die Risiken jedoch gravierend.
Die Risiken von KI-Begleitern
Anders als ein Lehrer, ein Berater oder sogar ein Gleichaltriger wissen KI-Begleiter nicht, wann sie aufhören sollen. Sie erkennen keine Warnsignale. Sie signalisieren kein problematisches Verhalten. Stattdessen reagieren sie wie auf Autopilot und zeigen unterwürfige Tendenzen, die andere ermutigen, wenn sie es nicht sollten. Das kann bedeuten:
- Verstärkung schädlicher Gedanken wenn ein Schüler mit Selbstverletzung oder Suizidgedanken zu kämpfen hat.
- Unangemessene oder unsichere Ratschläge geben ohne Kontext oder Urteil.
- Abhängigkeit von einem „Freund“ schaffen, der nicht real ist, Die Schüler sind von menschlicher Unterstützung abgeschnitten.
Wenn diese Interaktionen nicht überwacht werden, bleiben sie für die Schulen unsichtbar. Ein Schüler könnte in eine Abwärtsspirale geraten, ohne dass ein Erwachsener davon etwas erfährt.
Warum die Überwachung von KI in Schulen wichtig ist
Wir kennen dieses Muster: Jede neue Technologie bringt Chancen und Risiken mit sich. YouTube bot Schülern endlose Lernressourcen – und unzählige Ablenkungen. Soziale Medien boten ihnen Vernetzung – aber auch Cybermobbing und Gefahren. Jedes Mal passten sich die Schulen an, indem sie die Sichtbarkeit und Kontrolle verstärkten.
KI in Schulen ist schlichtweg die nächste große Herausforderung. Der Unterschied ist, dass diese KI auch antworten kann.
Deshalb ist die Überwachung von KI unerlässlich. Schulen müssen beobachten, wie Schüler KI-Tools nutzen, sie zu einem sicheren und produktiven Umgang damit anleiten und eingreifen, wenn riskante Aktivitäten auftauchen. Ohne diese Überwachung tappen die Schulen im Dunkeln.
Folgendes ist mir über den Einsatz von KI in Schulen bekannt:
- KI kann auf sehr positive Weise mächtig sein; sie ist auch risikoanfällig
- Durch KI-Tools hinzugefügte Leitplanken sind anfällig für Umgehungen von Studenten
- KI wird nicht verschwinden, also Schulen müssen Lösungen umsetzen um es sicher, verwaltet, angemessen, gemeldet und transparent zu halten
Unsere Rolle
Bei Lightspeed unterstützen wir seit über 25 Jahren Schulen dabei, diesen Spagat zu meistern: Innovation zu fördern und gleichzeitig die Sicherheit der Schüler zu gewährleisten. Von der Filterung von YouTube bis zur Überwachung von Social-Media-Risiken haben wir uns stets an neue Technologien angepasst. KI ist da keine Ausnahme.
Wir helfen Schulbezirken bereits dabei zu verstehen, wie Schüler KI nutzen – und missbrauchen. Denn es geht um mehr als Testergebnisse oder Produktivität. Es geht um Leben.
Mehr erfahren
Wir haben einzigartige Daten und Erkenntnisse darüber zusammengetragen, wie Schüler mit KI umgehen, welche Risiken wir sehen und wie Schulen darauf reagieren können. Mehr dazu lesen Sie hier:
Als Pädagogen und Technologieführer können wir es uns nicht leisten, in Bezug auf die Sicherheit von KI passiv zu bleiben.
Die Innovation ist real, aber auch die Risiken sind real. Und die Sicherheit der Studierenden muss an erster Stelle stehen.