FACTS Grounding: Neuer Benchmark zur Bewertung der Faktentreue von Sprachmodellen

Google DeepMind und Google Research haben mit FACTS Grounding einen neuen Benchmark vorgestellt, der die Faktentreue großer Sprachmodelle bewertet. Im Mittelpunkt steht, ob Aussagen eines Modells durch gegebene Quellen oder Kontexte tatsächlich belegt sind.

Der Benchmark wurde als gemeinsame Arbeit von Google DeepMind und Google Research entwickelt. FACTS Grounding wurde von Alon Jacovi, Andrew Wang, Chris Alberti, Connie Tao, Dipanjan Das, Jon Lipovetz, Kate Olszewska, Lukas Haas, Michelle Liu und Nate Keating geleitet.

Weitere Beiträge kamen von Adam Bloniarz, Carl Saroufim, Corey Fry, Dror Marcus, Doron Kukliansky, Gaurav Singh Tomar, James Swirhun, Jinwei Xing, Lily Wang, Madhu Gurumurthy, Michael Aaron, Moran Ambar, Rachana Fellinger, Rui Wang, Zizhao Zhang und Sasha Goldshtein.

Für die fortlaufende Unterstützung danken die beteiligten Teams außerdem Avinatan Hassidim, D. Sculley, Fernando Pereira, Koray Kavukcuoglu, Slav Petrov, Ya Xu und Yossi Matias.

Quelle

Originalquelle: Google DeepMind News

Recent Articles

spot_img

Related Stories

Leave A Reply

Bitte geben Sie Ihren Kommentar ein!
Bitte geben Sie hier Ihren Namen ein

Stay on op - Ge the daily news in your inbox