Die US-Aufsichtsbehörde FTC hat eine Untersuchung zur Sicherheit von KI-Chatbots für Kinder und Jugendliche eingeleitet. Die unter anderem für Verbraucherschutz zuständige FTC will von mehreren Anbietern wissen, wie sie mit möglichen negativen Folgen der Technologie umgehen.
Die Anfrage ging an den ChatGPT-Erfinder OpenAI, die Google-Mutter Alphabet, den Facebook-Konzern Meta und dessen Plattform Instagram, die Snapchat-Firma Snap, Elon Musks KI-Firma xAI und den Chatbot-Entwickler Character Technologies.
Die FTC interessiert sich speziell für Chatbots, die zu «Gefährten» im Alltag werden können, weil sie in der Lage sind, wie ein Freund oder Vertrauter zu kommunizieren. Dies könne dazu führen, dass einige Nutzer - «insbesondere Kinder und Teenager» - eine Beziehung zu Chatbots aufbauten, warnte die Behörde. Sie will unter anderem mehr darüber wissen, wie Unternehmen Geld mit Interaktionen von Nutzern mit Künstlicher Intelligenz verdienen und wie sie die Persönlichkeit von Chatbots entwickeln.
Um kommentieren zu können, müssen Sie angemeldet sein.
Registrieren sie sichSie haben ein Konto? Hier anmelden