Eine Zeitlang kannte die Parameterzahl großer Sprachmodelle nur eine Richtung: steil nach oben. Mehr Parameter bedingen mehr und hochwertigere Fähigkeiten, so die Überzeugung. Doch 2023 schlug die Stunde der mittelgroßen SprachKIs: Sie sind genügsam – und erstaunlich konkurrenzfähig. In mancher Disziplin rücken sie erstaunlich nahe an GPT-4 mit seinen kolportierten 1,8 Billionen Parametern heran. Damit tut sich ein riesiges Potenzial auf – auch für kleinere und mittelgroße Unternehmen, die mit eigenen Anwendungen liebäugeln. Wir erklären, was die schlanken Verwandten der Giganten können, was sie so effizient macht und wie die Zukunft der Sprachmodelllandschaft aussehen könnte.
Titel | Klein aber fein - Wie kompakte Sprachmodelle die Giganten herausfordern |
---|---|
Medien | c't - Magazin für Computertechnik |
Verlag | Heise |
Heft | 26 |
Band | 2023 |
ISBN | https://www.heise.de/select/ct/2023/26/2324912495668196094 |
Verfasser/Herausgeber | Prof. Dr. René Peinl |
Seiten | 50-55 |
Veröffentlichungsdatum | 13.11.2023 |
Projekttitel | M4-SKI |
Zitation | Peinl, René (2023): Klein aber fein - Wie kompakte Sprachmodelle die Giganten herausfordern. c't - Magazin für Computertechnik 2023 (26), S. 50-55. |