Digitales ABC: A wie...

Apertus; Kunstname für die erste in der Schweiz entwickelte KI auf Basis eines vielsprachigen grossen Sprachmodells (LLM).

Von Bruno Habegger · 6. März 2026

Bedeutung

Der lateinische Name Apertus leitet sich vom Verb aperire ab, was «öffnen» bedeutet – sinngemäss also Offenheit und Transparenz. Die Marke steht für eine Schweizer generative KI, die anders als die US-Konkurrenten in ihrer gesamten Entwicklung offengelegt ist. Dies umfasst auch die Architektur, Gewichte und Trainingsdaten.

Ausgangslage

Die beliebten grossen Sprachmodelle (LLM) – meist von US-Firmen entwickelt – sind alles andere als offen und stehen im Verdacht, mit der hemmungslosen Nutzung von Trainingsdaten Urheberrechte zu verletzen. Sie sind auch sprachlich limitiert, indem sie in den Trainingsdaten englisches Material weit höher gewichten. Kurz: Aussenstehende können die Funktionsweise der KI nicht nachvollziehen. Das will die Schweizer Initiative hinter Apertus ändern.

Apertus umfasst viele Sprachen, die in LLMs bisher unterrepräsentiert waren, wie Schweizerdeutsch, Rätoromanisch und viele andere. Apertus dient als Baustein für Entwickler und Organisationen für künftige Anwendungen.

Geschichte

Apertus wurde im Rahmen der Swiss AI Initiative entwickelt, unter der Leitung von ETH und EPFL auf der Infrastruktur des Swiss National Supercomputing Centre (CSCS).

Die Swiss AI Initiative wurde im Herbst 2023 mit 10 Millionen GPU-Stunden auf dem Supercomputer Alps (CSCS) und einem Zuschuss von CHF 20 Millionen des ETH-Rats und strategischen Partnern gegründet. Die Initiative gilt als die weltweit grösste Open-Science-/Open-Source-Initiative für KI-Grundlagenmodelle und die erste Initiative des Swiss National AI Institute, einer Partnerschaft zwischen dem ETH AI Center und dem EPFL AI Center. Die Initiative profitiert zudem vom Fachwissen von über 800 Forschenden (darunter 70 auf KI spezialisierte Professorinnen und Professoren) aus mehr als 10 akademischen Institutionen in der ganzen Schweiz.

Apertus wurde am 2. September 2025 veröffentlicht.

Deep Dive

Die grosse Schwäche der beliebten KI-Modelle liegt in den Trainingsdaten. Englisch dominiert, regionale Varianten und Minderheitensprachen sind dünn vertreten. Dazu kommt, dass Sprachmodelle Text in kleine Bausteine zerlegen und daraus die nächste wahrscheinliche Fortsetzung berechnen. Das funktioniert gut bei häufigen Mustern, scheitert aber bei seltenen Wendungen, langen Satzklammern und Dialekt. Ein zweiter Bremser ist das begrenzte Kontextfenster: Bei längeren Texten verlieren sie Begriffe, Tonalität und Bezüge. Beispiel: Bei schweizerdeutschen Redewendungen liefert eine herkömmliche KI teils wörtliche, teils falsch verstandene oder unscharfe Antworten. Dazu kommen Sicherheitsfilter, die Formulierungen glätten und Antworten vereinheitlichen.

Apertus-Modelle werden ausschliesslich auf offen verfügbaren Daten vortrainiert, wobei nachträglich robots.txt-Ausschlüsse respektiert und nichtzulässige, toxische und personenbezogene Inhalte herausgefiltert werden. Die wörtliche Wiedergabe von Daten wird stark unterdrückt. Apertus-Modelle erweitern die mehrsprachige Abdeckung erheblich: Sie trainieren auf 15 Billionen Token aus über 1000 Sprachen. Rund 40 % der Vortrainingsdaten sind für nicht-englische Inhalte reserviert.

Das Projekt der ETH, der EPFL und des CSCS folgt den Vorgaben der Schweizer Gesetzgebung und den Transparenzvorschriften des EU AI Acts. Sämtliche wissenschaftlichen Erkenntnisse aus der Entwicklung werden veröffentlicht, einschliesslich Datenaufbereitungsskripten, Checkpoints, Evaluierungs-Suites und Trainingscode, was eine transparente Überprüfung und Erweiterung ermöglicht. Mehr dazu im Tech-Bericht der Entwickler.

Wirkung

Apertus ist ein offenes Sprachmodell und kein Chatbot wie ChatGPT. Es handelt sich also um die technischen Bausteine für neue Anwendungen.

Apertus steht in zwei frei verfügbaren Modellgrössen bereit – mit 8 Milliarden sowie mit 70 Milliarden Parametern. Die nutzungsfreundliche Open-Source-Lizenz lässt einen Gebrauch in Bildung und Forschung ebenso zu wie breite gesellschaftliche und wirtschaftliche Anwendungen.

Bereits hat Apertus Erfolge erzielt: Das offene Foundation Model wird über verschiedene Cloud-Plattformen bereitgestellt (Swisscom AI Platform, Amazon AWS, Microsoft Azure, Infomaniak, Phoenix technologies, Exoscale etc.). Konkrete Anwendungsbeispiele sind publicai.co und das ZurichCityGPT (https://oss.zuericitygpt.ch), ein KI-System, das Fragen zur Stadt Zürich beantwortet.

Die Modelle wurden auf Hugging Face bis Ende 2025 über 1.8 Millionen Mal heruntergeladen. Nach Einschätzung der Forschenden ein «aussergewöhnlicher Wert für öffentlich trainierte Open-Weight-Modelle einer akademischen Institution». Bereits wird an Apertus 1.5 mit erweiterten Bildverständnis-Fähigkeiten gearbeitet. Zudem sollen künftig externe Tools angeschlossen werden können, um komplexere Aufgaben zu bewältigen. Apertus 2 wird zudem wesentlich grössere und effizientere Modelle nutzen.

Eines der Ziele der Swiss AI Initiative zeichnet sich am Horizont ab: Künstliche Intelligenz soll mit Apertus wie Strassen oder Glasfaserleitungen Teil der öffentlichen Infrastruktur werden.

Alle bisher erschienenen Buchstaben im digitalen ABC

Abraxas erklärt die wichtigsten Begriffe und Buzzwords der IT-Branche.
Bruno Habegger

Über Bruno Habegger

Bruno Habegger ist Abraxas-Magazin-Autor und Senior Communication Manager. Er verfügt über eine langjährige Erfahrung im ICT- und Energie-Bereich als Journalist, Contentproduzent und Berater. Er war Präsident einer Regionalpartei und an seinem damaligen Wohnort acht Jahre Mitglied der Sicherheitskommission.