Könnten Sprachmodelle künftig auch logisch denken?

Edition Zukunft - Un pódcast de DER STANDARD - Viernes

Für viele Menschen gehört das Sprachprogramm ChatGPT längst zum Alltag. Man lässt das Programm eigene E-Mails schreiben, fremde Texte zusammenfassen oder Informationen zu bestimmten Themen liefern. Innerhalb von Sekunden spuckt es einem auf dem Bildschirm die Antworten aus. Die Ergebnisse sind in vielen Fällen erstaunlich – und sprachlich einwandfrei. Aussagen auf Wahrheit, Schlüssigkeit und Logik prüfen, so wie wir Menschen, kann eine künstliche Intelligenz (KI) jedoch noch nicht. Das könnte sich aber bald ändern. Gemeinsam mit anderen Forscherinnen und Forschern versucht der KI-Wissenschafter Günter Klambauer an der Johannes-Kepler-Universität Linz künstlicher Intelligenz solche Fähigkeiten beizubringen – und sie dafür am Vorbild des menschlichen Gehirns zu trainieren. Ein Programm mit solchen Fähigkeiten könnte künftig etwa auch in sensiblen Bereichen wie in der Medizin oder bei gerichtlichen Verfahren zum Einsatz kommen, glaubt Klambauer. Im Podcast spricht der KI-Experte darüber, wie das in Zukunft gelingen könnte, wie Sprachprogramme momentan lernen und warum wir KI zu häufig menschliche Eigenschaften zuschreiben.

Visit the podcast's native language site