Künstliche Intelligenz und Halluzination

Mit „Antworten sind eventuell nicht ganz richtig“ (Ecosia) und „ChatGPT can make mistakes. Consider checking important information.“ verweisen die Anbieter von KI-Chatbots auf den Umstand, dass ihre Produkte bei schwacher Quellenlage halluzinieren. Und das geschieht auch an Stellen, bei denen es nicht zu vermuten ist. Ein Erfahrungsbericht.