Künstliche Intelligenz und Halluzination

Mit „Antworten sind eventuell nicht ganz richtig“ (Ecosia) und „ChatGPT can make mistakes. Consider checking important information.“ verweisen die Anbieter von KI-Chatbots auf den Umstand, dass ihre Produkte bei schwacher Quellenlage halluzinieren. Und das geschieht auch an Stellen, bei denen es nicht zu vermuten ist. Ein Erfahrungsbericht.

Schwerpunkt „Informatik und Inklusion“

„Informatik und Inklusion“ ist der Schwerpunkt der aktuellen Ausgabe 299 des GI-Radars. Das GI-Radar ist ein Newsletter der „Gesellschaft für Informatik (GI)„. Es geht zum Beispiel um „künstliche Intelligenz“ und wie Menschen mit Behinderungen auf autonome Fahrzeuge treffen. In den Fundstücken verweist der Newsletter unter anderem auf das Ergebnis einer automatisierten Prüfung von einer Million […]