KI-Programme wie ChatGPT ermöglichen es Kindern und Jugendlichen, in eine neue, digitale Welt einzutauchen, um sich zu informieren. Doch wenn Kinder beginnen, mit Chatbots über ihre Gefühle zu reden, kann es gefährlich werden. Plötzlich vergessen sie, dass hinter den wohlwollenden Worten keine echte Empathie steckt.
Im Frühling reichten in den USA die Eltern eines 16-jährigen Jungen Klage gegen OpenAI ein, nachdem ihr Sohn sich das Leben genommen hatte. Sie warfen dem KI-Unternehmen vor, Mitverantwortung am Suizid ihres Sohnes zu tragen, da der Chatbot seinen Entschluss bestärkt haben soll.
Seit diesem Oktober gibt es nun eine Kindersicherung für Eltern, damit sie die ChatGPT-Nutzung der Teenager kontrollieren können. Um die Kindersicherung zu aktivieren, benötigen sowohl die Eltern als auch das Kind ein ChatGPT-Konto. Denn der Schutz funktioniert nur, wenn die beiden Konten verbunden sind. Entweder können die Eltern dem Kind eine Einladung schicken oder umgekehrt.
Ruhezeiten festlegen
Sobald die Konten verknüpft sind, können Eltern die ChatGPT-Erfahrung ihres Kindes in den Kontoeinstellungen anpassen. Wenn ein Teenager die Verknüpfung seines Kontos aufhebt, werden die Eltern benachrichtigt. Folgende Funktionen können Eltern beeinflussen:
- Ruhezeiten oder bestimmte Zeiten festlegen, zu denen Kinder ChatGPT nicht verwenden können.
- Den Sprachmodus ausschalten, um die Option zur Verwendung des Sprachmodus in ChatGPT zu entfernen.
- Den Speicher ausschalten, damit ChatGPT beim Antworten keine Erinnerungen speichert und verwendet.
- Die Bildgenerierung entfernen, damit ChatGPT keine Bilder erstellen oder bearbeiten kann.
- Das Modelltraining deaktivieren, damit die Gespräche von Kindern nicht zur Verbesserung der Modelle verwendet werden, die ChatGPT unterstützen.
Eltern können bestimmte Funktionen einschränken, wenn sie ihr Konto mit dem ihres Kindes verknüpfen.
ZVGDas Kind ist in Gefahr? Eltern werden kontaktiert
In der Mitteilung über die Einführung des Kinderschutzes schrieb OpenAI: «Wir wissen, dass sich manche Teenager in schwierigen Momenten an ChatGPT wenden. Deshalb haben wir ein neues Benachrichtigungssystem entwickelt, damit Eltern wissen, ob möglicherweise etwas Ernstes nicht stimmt.» Konkret hat das Unternehmen Schutzfunktionen eingebaut, die dabei helfen können, zu erkennen, wenn ein Teenager möglicherweise an Selbstverletzung denkt.
Wenn das System solche Hinweise feststellt, schaut sich ein speziell geschultes Team die Situation genau an. Falls sich der Eindruck erhärtet, dass das Kind in akuter Gefahr sein könnte, werden die Eltern per E-Mail, SMS oder Push-Nachricht auf dem Handy informiert, solange sie diesem Vorgehen nicht widersprochen haben.
Hinzu kommt, dass bei einem aktivierten Kinderschutz grafische Inhalte, virale Herausforderungen, sexuelle, romantische oder gewalttätige Rollenspiele oder extreme Schönheitsideale für Kinder eingeschränkt werden.