Update: 26.3.2025
Die jüngsten Enthüllungen über Character.AI und die Zusammenarbeit mit Google sind ein Skandal und Sie werfen auch sehr ernsthafte Fragen über den Schutz von Minderjährigen im digitalen Raum auf. Berichte deuten darauf hin, dass diese Unternehmen experimentelle KI-Chatbots auf Kinder angewendet haben könnten, was zu besorgniserregenden Vorfällen führte.
Es ist unfassbar, dass milliardenschwere Tech-Giganten wie Google es zulassen, dass unausgereifte Technologien an unseren Kindern getestet werden, als wären sie Versuchskaninchen in einem gigantischen Labor.
Verbindungen zwischen Character.AI und Google
Character.AI hat von Google erhebliche Unterstützung erhalten, einschließlich Cloud-Computing-Infrastruktur, die es der Plattform ermöglichte, mit dem Nutzerwachstum zu skalieren. Im August 2024 zahlte Google 2,7 Milliarden US-Dollar an Character.AI für den Zugriff auf deren gesammelte Daten und integrierte die Gründer sowie 30 weitere Mitarbeiter in sein DeepMind-Labor.
Warnungen von Google-Forschern
Interessanterweise veröffentlichten Googles eigene Forscher im April 2024 eine Studie, die vor den Gefahren menschenähnlicher KI-Bots warnte, insbesondere hinsichtlich der Manipulation vulnerabler Nutzer und der potenziellen Förderung von Suizidgedanken.
Fehlende Regulierung und Datenschutzbedenken
In den USA fehlt es derzeit an einheitlichen Regulierungen für den Einsatz von KI-Chatbots, insbesondere zum Schutz von Minderjährigen. Dies hat zu Kritik geführt, da Unternehmen weitgehend selbst entscheiden können, welche Sicherheitsmaßnahmen sie implementieren. Im Gegensatz dazu arbeitet die Europäische Union aktiv an umfassenden KI-Gesetzen, die ethische und sicherheitsrelevante Aspekte berücksichtigen.
Fazit aus europäischer Sicht
Die aktuellen Entwicklungen unterstreichen die dringende Notwendigkeit für klare und durchsetzbare Richtlinien im Umgang mit KI, insbesondere zum Schutz von Minderjährigen.
Es bleibt zu hoffen, dass europäische Unternehmen als auch europäische Gesetzgeber, Lehren aus diesen Vorfällen ziehen (futurism.com) und entsprechende Maßnahmen ergreifen, um ähnliche Tragödien in der Zukunft zu verhindern.