18.08.2025 · News
Anthropic Model Welfare: Claude kann nun schädliche Unterhaltungen beenden
Anthropic hat Teile seines Claude-Angebotes um eine neue, auf den Namen ?Model Welfare? getaufte Funktion erweitert. Sie ermöglicht es dem KI-Modell, Interaktionen mit dem Nutzer zu beenden, wenn der Eindruck entsteht, dass diese Schaden verursachen oder für schädliche Zwecke missbraucht werden könnten.
Quelle: Feed/Computerbase.de [ mehr ]