Spätestens, seit der Chatbot „My AI“ in Snapchat integriert wurde, ist KI für Jugendliche zum ständigen Begleiter auf dem Smartphone geworden. Gerade bei sehr persönlichen Anliegen oder bei Fragen, die als peinlich empfunden werden, nutzen diese gerne KI-Tools – vor allem Chatprogramme wie ChatGPT oder My AI, die eine menschlich anmutende Kommunikation ermöglichen. Sich sinnvoll unterhalten zu können, ohne mit einem echten Menschen reden zu müssen, nimmt vielen Jugendlichen die Hemmungen – schließlich fällt es in diesem Alter besonders schwer, über heikle Themen zu sprechen; da erscheint es oft hilfreich, wenn man sich einem Computer anvertrauen kann.
Macht es Sinn, Chatbots und andere KI-Tools als Beratungsinstrument zu verwenden?
Werden KI-Tools wie ChatGPT zum Umgang mit schwierigen Situationen befragt, können sie unserer Einschätzung nach recht hilfreiche Antworten und Tipps liefern – zumindest auf einer eher allgemeinen Ebene. Bei spezielleren Fragen liefern die Tools aber oftmals falsche Informationen. Suchen Jugendliche beispielsweise nach konkreten Anlaufstellen oder Hilfsangeboten, erhalten sie oft fehlerhafte Ergebnisse – denn KI-Chatbots sind darauf programmiert, in jedem Fall eine Antwort zu geben. Noch steht im Vordergrund, dass ihre Antworten uns Menschen plausibel und brauchbar erscheinen – ob alle Inhalte stimmen, ist dabei sekundär, und so werden immer wieder Informationen erfunden oder Fakten durcheinandergebracht.
Natürlich werden KI-System laufend verbessert. Nichtsdestotrotz brauchen Kinder und Jugendliche unbedingt die Fähigkeit, KI-Inhalte selbst einschätzen zu können. Das ist natürlich nicht einfach, wenn die Informationen so schön verpackt und gut formuliert daherkommen – es gibt scheinbar keinen Grund, skeptisch zu sein. Die Inhalte kritisch zu hinterfragen oder gar selbstständig nachzuforschen, empfinden viele Jugendliche als viel zu aufwändig. Umso wichtiger ist es, Ihnen zu vermitteln, dass KI-Systeme fehleranfällig sind – zum Beispiel, weil ihre Datenbasis lückenhaft ist und es vor allem darum geht, dass ihre Antworten möglichst menschenähnlich klingen.
Kinder müssen Informationsbewertung üben
Auch wenn es mühsam erscheint: Es ist es unerlässlich, dass Sie mit Ihrem Kind regelmäßig üben, wie man Informationen überprüft. Erklären Sie ihm, dass Chatbots und andere KI-Tools für einfache Fragen nützlich sein können, dass man den Wahrheitsgehalt der Antworten aber immer kritisch hinterfragen und mit anderen Quellen abgleichen sollte. Besprechen Sie, wo man gute, unabhängige Quellen für verschiedene Themen findet und welchen Einrichtungen man Glauben schenken kann bzw. welchen nicht.
Sie können das an ganz praxisnahen Beispielen veranschaulichen. Fragt man ChatGPT etwa nach der Nummer einer Hilfseinrichtung für Kinder, erhält man eine Telefonnummer aus Deutschland („Nummer gegen Kummer“). Da Kinder in der Regel wenig Erfahrung mit Telefonnummern und Vorwahlen haben, werden Sie nicht erkennen, dass es sich dabei um eine deutsche Nummer handelt. Um hier mehr Bewusstsein zu schaffen, können Sie z. B. im Zuge von Urlauben die unterschiedlichen Vorwahlen besprechen. Welche wichtigen Hilfseinrichtungen es in Österreich gibt, können Sie auch thematisieren, wenn ein Freund oder eine Freundin Ihres Kindes gerade Probleme hat.
Auch zu anderen sensiblen Themen können Sie ihrem Kind im Alltag Quellenkompetenz vermitteln. Geht es um Gesundheitsfragen, kann es etwa hilfreich sein, Ihrem Kind zu zeigen, wo Sie selbst sich informieren (z. B. bei NetDoktor oder bei der AGES). Wenn Sie über eine Phishing-Nachricht stolpern, können Sie sich wiederum bei der Watchlist Internet informieren und auch gleich Ihrem Kind zeigen, dass es dort hilfreiche Warnungen und Tipps findet – auch, wenn es vielleicht in diesem Moment die Nase rümpft und sich sicher ist, dass ihm so etwas nie selbst passieren wird.
Wenn Sie als Eltern Ihrem Kind zeigen, wie es gute Quellen findet und warum es Informationen kritisch hinterfragen sollte, ist das ein wichtiges Rüstzeug im Umgang mit KI-Technologien: Weil Ihr Kind dann zum Beispiel – mitten in der Nacht, im „Gespräch“ mit einem Chatbot – weiß, wo es sich über ein bestimmtes Thema informieren kann, wenn es den Aussagen des Chatbots nicht glaubt; weil es erlebt hat, dass ein Chatbot „lügt“ – und dass das ganz alltäglich ist.
Matthias Jax
ist Projektleiter der EU-Initiative Saferinternet.at und Experte für soziale Netzwerke, Datenschutz und digitale Kompetenzen.
Problematische Computerspiele: Was soll ich meinem Kind erlauben?
Es ist ein bekanntes Szenario für viele Eltern: Das eigene Kind möchte unbedingt ein bestimmtes Computerspiel spielen, das man selbst fürchterlich findet – zum Beispiel, weil es Gewalt beinhaltet oder schlechte Vorbilder vermittelt. Wie kann man als Elter
Kommentare