Ein 14jähriger begeht Selbstmord. Später stellt sich raus, dass er für immer mit seiner Freundin, einem KI-Chatbot, zusammen sein wollte. Der Fall macht Schlagzeilen, es melden sich weitere Eltern. Hier geht es nicht um „Disruption“, sondern um grobe Fahrlässigkeit von Firmen. https://www.spiegel.de/panorama/kuenstliche-intelligenz-verliebt-in-einen-chatbot-bis-in-den-tod-a-7ff4fe5a-1c6d-406e-99b3-c340d2c984c4?sara_ref=re-so-app-sh
Da sehe ich auch die Eltern in der Pflicht.
Was kommt als nächstes?
Unternehmen verklagen weil mit dem vom Kind gekauften Buttermesser blödsinn gemacht wurde oder mit dem Kinderflitzebogen ein vom Kind gesammelter Weidenstock anstatt des Kinderpfeils verschossen wurde...?
Je mehr ich darüber nachdenke, um so mehr sehe ich eine grobe Verletzung der Aufsichtspflicht.
@maexchen1 @kattascha Vorsichtige, wirklich nicht provokativ gemeinte Fragen: Hast Du Kinder? Kanntest Du character.ai? Hättest Du es erkannt, wenn es im Browser aufgerufen worden wäre? Hätte Dir Dein Kind davon erzählt? Hättest Du einen Chatbot korrekt als Gefahr eingeschätzt? Immerhin steck ja kein Erwachsener dahinter, der sich an Kinder ranmacht...
Wenn Du das alles mit "ja" beantworten kannst, nehme ich Dir die "grobe Verletzung der Aufsichtspflicht" als aus Deiner Perspektive plausibel ab.
Das kann ich alles mit JA beantworten.
Ich habe bei allem was meine beiden Kinder gemacht haben mich Informiert.
Sogar offline, zum Ärger der Grundschule.
Schreiben wie gesprochen hatte ich z.B. nicht toleriert.