Apertus

Apertus
Basisdaten

Entwickler ETH Zürich, ETH Lausanne und Swisscom
Erscheinungsjahr 2025
Aktuelle Version Apertus 2 Septembre 2025 Version
(2. September 2025)
Programmier­sprache Python
Lizenz Apache-Lizenz
https://apertus.ai

Apertus ist ein großes Sprachmodell (engl. Large Language Model, kurz LLM), das von Forschern in der Schweiz entwickelt wurde.[1] Apertus wurde im September 2025 vorgestellt und gilt damit als das erste große Sprachmodell aus der Schweiz. Es ist vollständig als Open Source verfügbar; auch der Quellcode des Trainingsprozesses sowie die Trainingsdaten sind offengelegt.[2][3]

Es wird als erstes großes Sprachmodell bezeichnet, welches die Transparenzpflichten der KI-Verordnung der Europäischen Union (engl. EU AI Act) vollständig erfüllt.[1] Für das Training wurden über 1000 Sprachen inkludiert, die in vergleichbaren Modellen unterrepräsentiert sind.[4]

Projektorganisation

Das Sprachmodell entstand durch Zusammenarbeit der ETH Lausanne (französisch EPFL), der ETH Zürich und des Centro svizzero di calcolo scientifico (CSCS), welches den Supercomputer Alps betreibt.

Eigenschaften

Apertus ist ein Basismodell vom Typ Generativer vortrainierter Transformer (GPT). Es ist vergleichbar mit den Modellen, die ChatGPT zugrunde liegen, und besteht aus gestapelten Transformer-Decodern. Das Modell wurde in zwei Größen (8 Milliarden und 70 Milliarden Parameter) veröffentlicht, von beiden existiert zudem eine auf Instruktionen finegetunte Version.[4] Trainiert wurde mit 15 Billionen Worteinheiten (Tokens) aus über tausend Sprachen,[2] darunter bewusst viele Quellen auf Sprachen, welche in vergleichbaren Modellen untervertreten sind, wie Schweizerdeutsch und Rätoromanisch.[2][5][6] Hierzu wurde eine eigene Methode zur Worteinbettung zur Qualitätsfilterung entwickelt,[7] und der Tokenizer in vielen Sprachen analysiert.[8] Im Zuge der Entwicklung des Modells wurden zudem weitere Komponenten optimiert und teils neu entwickelt, wie z. B. ein Optimierer sowie eine neue Aktivierungsfunktion.[9]

Die Entwicklung von Apertus erfolgte unter Berücksichtigung der Schweizer Datenschutzgesetze, des Schweizer Urheberrechts und der Transparenzanforderungen der EU KI-Verordnung. Allerdings wurde nicht bei allen zum Training verwendeten, menschlich erzeugten Textquellen die Erlaubnis für deren Verwendung formal eingeholt. Für das KI-Training gesperrte öffentliche Texte wie z. B. diejenigen der New York Times wurden dagegen nicht verwendet[10][11] – im Gegensatz zu bekannteren Sprachmodellen kommerzieller Anbieter, welche urheberrechtlich geschützte Inhalte ohne Bewilligung verwendeten.[12] Die Entwickler versprechen, Wünsche von Urheberrechtsbesitzern zur Entfernung ihrer allenfalls im Modell verwendeten Quellen nachzukommen (engl.: Opting-out requests).[1]

Zum Stand der Veröffentlichung umfasst Apertus noch keine multimodale Benutzerschnittstelle und ist deshalb noch kein vollständiger Chatbot. Auch ist die Komplexität des Sprachmodells (Anzahl Schichten und Parameter) kleiner als bei den leistungsfähigsten Chatbots kommerzieller Hersteller. Die Modelle sollen laufend weiterentwickelt werden.

Als umfassend offengelegte KI-Basistechnologie will Apertus Kleinunternehmen und Anwendern in unterschiedlichen Bereichen die Entwicklung eigener KI-Lösungen bei relativ geringem Aufwand ermöglichen.[13][14]

Partnerschaften

  • Swisscom stellt eine speziell entwickelte Schnittstelle zur Verfügung, die das Arbeiten mit dem Modell erleichtert. Geschäftskunden von Swisscom haben Zugriff auf das Apertus-Sprachmodell über die Swiss AI Platform von Swisscom.[15]

Einzelnachweise

  1. a b c Malte Kirchner: Apertus: Schweiz stellt erstes offenes und mehrsprachiges KI-Modell vor. In: heise online. 2. September 2025, abgerufen am 7. September 2025.
  2. a b c Apertus: Ein vollständig offenes, transparentes und mehrsprachiges Sprachmodell. In: ETH Zürich. 2. September 2025, abgerufen am 7. September 2025.
  3. Elissa Welle: Switzerland releases its own AI model trained on public data. In: The Verge. 3. September 2025, abgerufen am 7. Oktober 2025 (englisch).
  4. a b Apertus – Democratizing Open and Compliant LLMs for Global Language Environments. (PDF; 4,1 MB) Technischer Bericht. In: GitHub. Project Apertus, 2. September 2025, abgerufen am 6. September 2025 (englisch).
  5. Ruth Fulterer: Die Schweiz bekommt eine Chat-GPT-Alternative: die wichtigsten Antworten zu Apertus. In: Neue Zürcher Zeitung. 2. September 2025, abgerufen am 7. September 2025.
  6. Angelika Romanou, Negar Foroutan, Anna Sotnikova, Zeming Chen, Sree Harsha Nelaturu, Shivalika Singh, Rishabh Maheshwary, Micol Altomare, Mohamed A. Haggag, Snegha A, Alfonso Amayuelas, Azril Hafizi Amirudin, Viraat Aryabumi, Danylo Boiko, Michael Chang, Jenny Chim, Gal Cohen, Aditya Kumar Dalmia, Abraham Diress, Sharad Duwal, Daniil Dzenhaliou, Daniel Fernando Erazo Florez, Fabian Farestam, Joseph Marvin Imperial, Shayekh Bin Islam, Perttu Isotalo, Maral Jabbarishiviari, Börje F. Karlsson, Eldar Khalilov, Christopher Klamm, Fajri Koto, Dominik Krzemiński, Gabriel Adriano de Melo, Syrielle Montariol, Yiyang Nan, Joel Niklaus, Jekaterina Novikova, Johan Samir Obando Ceron, Debjit Paul, Esther Ploeger, Jebish Purbey, Swati Rajwal, Selvan Sunitha Ravi, Sara Rydell, Roshan Santhosh, Drishti Sharma, Marjana Prifti Skenduli, Arshia Soltani Moakhar, Bardia Soltani Moakhar, Ran Tamir, Ayush Kumar Tarun, Azmine Toushik Wasi, Thenuka Ovin Weerasinghe, Serhan Yilmaz, Mike Zhang, Imanol Schlag, Marzieh Fadaee, Sara Hooker, Antoine Bosselut: INCLUDE: Evaluating Multilingual Language Understanding with Regional Knowledge. 29. November 2024, arxiv:2411.19799 (englisch).
  7. Bettina Messmer, Vinko Sabolčec, Martin Jaggi: Enhancing Multilingual LLM Pretraining with Model-Based Data Selection. 2025, abgerufen am 5. Dezember 2025.
  8. Negar Foroutan, Clara Meister, Debjit Paul, Joel Niklaus, Sina Ahmadi, Antoine Bosselut, Rico Sennrich: Parity-Aware Byte-Pair Encoding: Improving Cross-lingual Fairness in Tokenization. 22. August 2025, arxiv:2508.04796 (englisch).
  9. Matteo Pagliardini, Pierre Ablin, David Grangier: The AdEMAMix Optimizer: Better, Faster, Older. 27. September 2024, arxiv:2409.03137 (englisch).
  10. Jan Bolliger, Edith Hollenstein: 1000 Sprachen und ein Supercomputer in Lugano: Die Schweiz steigt ins KI-Rennen ein. In: Tages-Anzeiger. 2. September 2025, abgerufen am 7. September 2025.
  11. Dongyang Fan, Vinko Sabolčec, Matin Ansaripour, Ayush Kumar Tarun, Martin Jaggi, Antoine Bosselut, Imanol Schlag: Can Performant LLMs Be Ethical? Quantifying the Impact of Web Crawling Opt-Outs. 5. August 2025, arxiv:2504.06219 (englisch).
  12. Cade Metz: Anthropic Agrees to Pay $1.5 Billion to Settle Lawsuit With Book Authors. In: The New York Times. 5. September 2025, abgerufen am 8. September 2025 (englisch).
  13. Vyom Ramani: Apertus, the Swiss open-source AI model: What it does and how it is different? In: digit.in. 4. September 2025, abgerufen am 7. Oktober 2025 (englisch).
  14. John E. Dunn: Swiss launch open source AI model as “ethical” alternative to big US LLMs. In: InfoWorld. 4. September 2025, abgerufen am 7. Oktober 2025 (englisch).
  15. Sepp Huber: Apertus: A fully open, transparent, multilingual language model. In: Swisscom. 2. September 2025, abgerufen am 7. September 2025 (englisch).