PROTECT YOUR DNA WITH QUANTUM TECHNOLOGY
Orgo-Life the new way to the future Advertising by AdpathwayDas Unternehmen hinter dem KI-Chatbot will bisher geltende Beschränkungen lockern. Man wolle erwachsene Nutzer wie Erwachsene behandeln, teilt Gründer Sam Altman mit.
15. Oktober 2025, 5:12 Uhr Quelle: DIE ZEIT, dpa, Reuters, mp
Der Chatbot ChatGPT soll erwachsenen Nutzern künftig auch erotische Inhalte bieten können. Das teilte der Chef und Gründer der Entwicklerfirma OpenAI, Sam Altman, mit. Die entsprechende Lockerung der Beschränkungen, die bisher für ChatGPT gelten, soll im Dezember in Kraft treten.
"Mit der vollständigen Einführung der Altersüberprüfung und gemäß unserem Grundsatz, erwachsene Nutzer wie Erwachsene zu behandeln, werden wir mehr Inhalte wie Erotik für verifizierte Erwachsene erlauben", schrieb Altman auf der Plattform X. OpenAI habe ChatGPT bisher bewusst restriktiv gestaltet, um auf mögliche psychische Probleme von Nutzern Rücksicht zu nehmen, fügte er hinzu. Dies habe den Chatbot jedoch für viele Nutzer "weniger nützlich oder unterhaltsam" gemacht. Inzwischen verfüge OpenAI über neue Werkzeuge, um mit diesem Thema besser umzugehen.
Nutzer sollen Verhalten von ChatGPT besser steuern können
Rivale Elon Musk bietet bei seinem Chatbot Grok schon seit einiger Zeit sexualisierte Inhalte inklusive eines leicht bekleideten animierten Avatars an. Auch bei kleineren Anbietern gibt es Erotik-Chatbots.
ChatGPT löste vor rund drei Jahren den aktuellen KI-Hype aus und gilt als der populärste Chatbot mit inzwischen rund 800 Millionen Nutzern pro Woche. OpenAI und Konkurrenten wie der Facebook-Konzern Meta investieren für den Ausbau ihres Angebots hunderte Milliarden Dollar in Rechenzentren. Mit neuen Funktionen versuchen die Anbieter gleichzeitig, ihre Erlöse zu steigern.
OpenAI will Nutzern künftig auch die Möglichkeit geben, den Charakter von ChatGPT stärker zu beeinflussen, damit die Software zum Beispiel "wie ein Freund" agieren kann. Hintergrund ist, dass einige Nutzer eine frühere Version vermissen, die ihnen mehr Zustimmung gab. Ein Problem war damals, dass die Software auch potenziell schädliches oder riskantes Verhalten befürwortete. Dagegen gibt es laut OpenAI nun Vorkehrungen.