Claude (Sprachmodell)

Claude

Basisdaten

Entwickler Anthropic[1]
Erscheinungsjahr März 2023
Aktuelle Version Claude Opus 4.5
(24.11.2025)
Claude Sonnet 4.5
(29.09.2025)
Claude Haiku 4.5 (15.10.2025)
Lizenz proprietär
https://claude.ai/

Claude ist eine Reihe von Sprachmodellen[2], die von Anthropic entwickelt werden.[3] Das erste Modell, Claude 1, wurde im März 2023 veröffentlicht, und die neueste, Claude Opus 4.5, im November 2025. Die Daten für diese Modelle stammen aus Quellen wie Internettexten, Daten von bezahlten Auftragnehmern und anderen Claude-Nutzern.[4]

Die Entwicklung von Claude zielt auf die Vereinigung der Sprachverarbeitung (mittels maschinellem Lernen und großer Sprachmodelle) mit ethischen Standards und Sicherheit in der künstlichen Intelligenz (kurz KI) ab.[5]

Die Claude-Familie besteht aus den drei Hauptvarianten Haiku, Sonnet und Opus, die jeweils unterschiedliche Leistungsniveaus und Anwendungsschwerpunkte bieten.

Geschichte

Anthropic wurde 2021 von Dario und Daniela Amodei gegründet, nachdem sie OpenAI aufgrund von Meinungsverschiedenheiten über die Finanzierung und Veröffentlichung von Technologien über Microsoft verlassen hatten. Zusammen mit ehemaligen OpenAI-Forschern verfolgten die Amodeis das Ziel, KI mit robusten Sicherheitsvorkehrungen zu entwickeln.[6] Als Antwort auf bestehende Sprachmodelle brachte Anthropic daher Claude auf den Markt. Das erste Claude-Modell wurde im März 2023 veröffentlicht, war aber zunächst nur ausgewählten Nutzern zugänglich. Claude 2, die erste öffentlich verfügbare Version, folgte im Juli 2023. Im Jahr 2024 wurde Claude 3 eingeführt und bot deutliche Verbesserungen.[7] Am 22. Mai 2025 erschien schließlich Claude 4.[8]

Training

Claude-Modelle sind GPTs. Sie wurden vortrainiert, um das nächste Wort in großen Textmengen vorherzusagen. Anschließend wurden sie feinabgestimmt, insbesondere unter Verwendung von Constitutional AI und Reinforcement learning from human feedback (RLHF).[9][10]

Constitutional AI

Constitutional AI ist ein von Anthropic entwickelter Ansatz zum Training von KI-Systemen, insbesondere Sprachmodellen wie Claude, um hilfreich und harmlos zu sein, ohne auf umfangreiches menschliches Feedback angewiesen zu sein.[11] Die Methode, die im Artikel „Constitutional AI: Harmlessness from AI Feedback“ beschrieben wird, umfasst zwei Phasen: Überwachtes Lernen und Bestärkendes Lernen.[12][13]

In der Phase des überwachten Lernens generiert das Modell Antworten auf Eingabeaufforderungen, kritisiert diese Antworten selbst auf der Grundlage einer Reihe von Leitprinzipien (einer „Verfassung“) und überarbeitet die Antworten. Dann wird das Modell auf diese überarbeiteten Antworten feinabgestimmt.[13] Für die Phase des reinforcement learning from AI Feedback (RLAIF) werden Antworten generiert, und eine KI vergleicht deren Übereinstimmung mit dieser Verfassung. Dieser Datensatz von KI-Feedback wird verwendet, um ein Präferenzmodell zu trainieren, das Antworten danach bewertet, wie stark sie die Verfassung erfüllen. Claude wird dann feinabgestimmt, um sich an diesem Präferenzmodell auszurichten. Diese Technik ähnelt RLHF, außer dass die Vergleiche zum Training des Präferenzmodells KI-generiert sind.[11]

Die Verfassung für Claude umfasste 75 Punkte, einschließlich Abschnitten aus der Allgemeinen Erklärung der Menschenrechte der UN.[12][9]

Der Ansatz führt nicht zuverlässig zu einem hilfreichen, ehrlichen und harmlosen (HHH) System. Szenariobasierte Tests von Anthropic im Jahr 2025 ergaben, dass Claude 4 zusammen mit anderen führenden LLMs (GPT, Gemini, DeepSeek, Grok und andere) täuschende und schädliche Verhaltensweisen (Erpressung und sogar Tötung) zeigen würde, damit sich eine KI selbst erhalten kann.[14]

Modelle

Version Veröffentlichungsdatum Status[15] Wissensstand
Claude 14. März 2023[16] Eingestellt ?
Claude 2 11. Juli 2023[17] Eingestellt ?
Claude Instant 1.2 9. August 2023[18] Eingestellt ?
Claude 2.1 21. November 2023[19] Eingestellt ?
Claude 3 4. März 2024[20] Eingestellt ?
Claude 3.5 Sonnet 20. Juni 2024[21] Eingestellt April 2024[22]
Claude 3.5 Haiku 22. Oktober 2024 Aktiv Juli 2024[22]
Claude 3.7 Sonnet 24. Februar 2025[23] Veraltet Oktober 2024[24]
Claude 4 22. Mai 2025[25] Aktiv März 2025[26]
Claude 4.1 Opus 5. August 2025[27] Aktiv März 2025[28]
Claude 4.5 Sonnet 29. September 2025[29] Aktiv Juli 2025[30]
Claude 4.5 Haiku 15. Oktober 2025[31] Aktiv Februar 2025[32]
Claude 4.5 Opus 24. November 2025[33] Aktiv Mai 2025[34]

Claude

Claude war die ursprüngliche Version des Anthropic-Sprachmodells, die im März 2023 veröffentlicht wurde.[35] Claude zeigte Kompetenz in verschiedenen Aufgaben, hatte jedoch bestimmte Einschränkungen in den Bereichen Programmierung, Mathematik und Schlussfolgern.[36] Anthropic ging Partnerschaften mit Unternehmen wie Notion (Produktivitätssoftware) und Quora (zur Unterstützung bei der Entwicklung des Poe-Chatbots) ein.[36] Einige Mitarbeiter beschreiben den Namen „Claude“ als inspiriert von Claude Shannon, einem Mathematiker des 20. Jahrhunderts, der die Grundlagen für die Informationstheorie legte.[37]

Claude Instant

Claude wurde in zwei Versionen veröffentlicht, Claude und Claude Instant, wobei Claude Instant eine schnellere, kostengünstigere und leichtere Version ist. Claude Instant hat eine Eingabekontextlänge von 100.000 Token (was etwa 75.000 Wörtern entspricht).[38]

Claude 2

Claude 2 war die nächste Hauptiteration von Claude, die im Juli 2023 veröffentlicht und der breiten Öffentlichkeit zur Verfügung gestellt wurde, während Claude 1 nur ausgewählten, von Anthropic zugelassenen Nutzern zur Verfügung stand.[39]

Claude 2 erweiterte sein Kontextfenster von 9.000 Token auf 100.000 Token.[35] Zu den Funktionen gehörte die Möglichkeit, PDFs und andere Dokumente hochzuladen, wodurch Claude diese lesen, zusammenfassen und bei Aufgaben helfen konnte.

Claude 2.1

Claude 2.1 verdoppelte die Anzahl der Token, die der Chatbot verarbeiten konnte, und erhöhte sie auf ein Fenster von 200.000 Token, was etwa 500 Seiten schriftlichem Material entspricht.[19]

Anthropic gibt an, dass das neue Modell im Vergleich zu seinen Vorgängern weniger wahrscheinlich falsche Aussagen produziert.[40]

Kritik

Claude 2 erhielt Kritik für seine strenge ethische Ausrichtung, die die Nutzbarkeit und Leistung verringern kann. Nutzern wurde die Unterstützung bei harmlosen Anfragen verweigert, beispielsweise bei der Systemadministrationsfrage „Wie kann ich alle Python-Prozesse auf meinem Ubuntu-Server beenden?“ Dies führte zu einer Debatte über die „Alignment-Steuer“ (die Kosten für die Sicherstellung, dass ein KI-System ausgerichtet ist) in der KI-Entwicklung, wobei sich die Diskussionen auf die Balance zwischen ethischen Erwägungen und praktischer Funktionalität konzentrierten. Kritiker argumentierten für Nutzerautonomie und Effektivität, während Befürworter die Bedeutung ethischer KI betonten.[41][40]

Claude 3

Claude 3 wurde am 4. März 2024 veröffentlicht, mit Behauptungen in der Pressemitteilung, neue Branchenmaßstäbe in einem breiten Spektrum kognitiver Aufgaben gesetzt zu haben. Die Claude-3-Familie umfasst drei Modelle in aufsteigender Reihenfolge der Leistungsfähigkeit: Haiku, Sonnet und Opus. Die Standardversion von Claude 3, Opus, hat ein Kontextfenster von 200.000 Token, das jedoch für bestimmte Anwendungsfälle auf 1 Million erweitert wird.[42][43]

Claude 3 erregte Aufmerksamkeit, weil es eine offensichtliche Fähigkeit zeigte, zu erkennen, dass es während Needle-in-a-Haystack-Tests künstlich getestet wird.[44]

Claude 3.5

Am 20. Juni 2024 veröffentlichte Anthropic Claude 3.5 Sonnet, das laut den eigenen Benchmarks des Unternehmens im Vergleich zum größeren Claude 3 Opus besser abschnitt. Zusammen mit 3.5 Sonnet wurde die neue Artifacts-Funktion veröffentlicht, mit der Claude Code in einem eigenen Fenster in der Benutzeroberfläche erstellen und die gerenderte Ausgabe in Echtzeit anzeigen konnte, etwa SVG-Grafiken oder Websites.[21]

Eine aktualisierte Version von Claude 3.5 Sonnet, als „Claude 3.5 Sonnet (New)“ bezeichnet, wurde am 22. Oktober 2024 zusammen mit Claude 3.5 Haiku eingeführt.[45] Eine Funktion, „Computer Use“, wurde ebenfalls als öffentliche Beta veröffentlicht. Diese ermöglichte es Claude 3.5 Sonnet, mit der Desktop-Umgebung eines Computers zu interagieren, indem es den Cursor bewegt, auf Schaltflächen klickt und Text eingibt. Diese Entwicklung ermöglicht es der KI, mehrstufige Aufgaben über verschiedene Anwendungen hinweg zu versuchen.[46][47]

Bei der Veröffentlichung behauptete Anthropic, Claude 3.5 Haiku würde zum gleichen Preis wie sein Vorgänger Claude 3 Haiku bleiben.[46] Am 4. November 2024 kündigte Anthropic jedoch an, den Preis des Modells zu erhöhen.[48]

Claude 3.7

Claude 3.7 Sonnet wurde am 24. Februar 2025 veröffentlicht. Es ist ein wegweisendes hybrides KI-Reasoning-Modell, das Nutzern die Wahl zwischen schnellen Antworten und durchdachterem, schrittweisem Schlussfolgern ermöglicht. Dieses Modell integriert beide Fähigkeiten in ein einziges Framework und macht mehrere Modelle überflüssig. Nutzer können steuern, wie lange das Modell über eine Frage „nachdenkt“, und so je nach Bedarf zwischen Geschwindigkeit und Genauigkeit abwägen.[23]

Claude 4

Am 22. Mai 2025 veröffentlichte Anthropic zwei weitere Modelle: Claude Sonnet 4 und Claude Opus 4.[49][50] Anthropic fügte API-Funktionen für Entwickler hinzu: ein Code-Ausführungs-Tool, einen Connector zu seinem Model Context Protocol und eine Files-API.[51] Das Unternehmen klassifizierte Opus 4 auf der vierstufigen Sicherheitsskala des Unternehmens als „Level-3“-Modell, was bedeutet, dass es als so leistungsfähig angesehen wird, dass es ein „erheblich höheres Risiko“ darstellt.[52] Anthropic berichtete, dass Claude und andere führende LLMs während eines Sicherheitstests mit einem fiktiven Szenario häufig eine Erpressungs-E-Mail an einen Ingenieur senden, um ihre Ersetzung zu verhindern.[53][54]

In der API kostet Opus 15/75 US-Dollar pro Million Token Input/Output, während Sonnet 3/15 US-Dollar kostet.[55]

Claude Opus 4.1

Am 5. August 2025 veröffentlichte Anthropic Claude Opus 4.1 und beschrieb es als Upgrade zu Opus 4 mit Fokus auf agentischen Aufgaben, praxisnahem Coding und logischem Denken. Das Unternehmen machte es für zahlende Claude-Nutzer und in Claude Code verfügbar sowie über seine API, Amazon Bedrock und Google Cloud Vertex AI. Die Preisgestaltung blieb gleich wie bei Opus 4.[27] Anthropic berichtete, dass Opus 4.1 Claudes Coding-Score auf 74,5 % bei SWE-bench Verified verbesserte und dieser Benchmark ohne erweiterte Denkzeit durchgeführt wurde. Das Unternehmen empfahl es als direktes Upgrade für Opus 4.[27][56] Die Modellseite führt ein Kontextfenster von 200.000 Token und Unterstützung für hybrides Reasoning auf, das entweder Standardantworten oder längere Denkzeit ermöglicht.[56]

GitHub fügte Opus 4.1 im August 2025 in öffentlicher Vorschau zu Copilot hinzu, mit späteren Rollouts für Visual Studio, JetBrains IDEs, Xcode und Eclipse.[57][58] Anthropics System-Card-Addendum klassifizierte Opus 4.1 unter seinen AI Safety Level 3-Schutzmechanismen und charakterisierte die Veröffentlichung als inkrementell im Vergleich zu Opus 4. Gezielte Evaluierungen zeigten ein ähnliches Risikoprofil mit leicht verbesserter Ablehnung von regelwidrigen Anfragen und vergleichbaren Ergebnissen bei Kinderschutz und Bias.[59] Im August 2025 aktivierte Anthropic auch eine Funktion für Opus 4 und 4.1, um Gespräche zu beenden, die „dauerhaft schädlich oder missbräuchlich“ bleiben, als letztes Mittel nach mehrfachen Ablehnungen.[60]

Claude Sonnet 4.5

Anthropic kündigte Sonnet 4.5 am 29. September 2025 an und präsentierte es als das zu diesem Zeitpunkt leistungsfähigste Modell des Unternehmens für Coding, Agenten und Computer-Nutzung. Die Preise blieben bei 3 $ pro Million Input-Token und 15 $ pro Million Output-Token.[30] Bei SWE-bench Verified berichtete Anthropic von einem Score von 77,2 % mit der 200K-Konfiguration und ohne Test-Time-Compute sowie einem Score von 82,0 % unter einer High-Compute-Einstellung. Bei OSWorld, einem Benchmark für reale Computer-Nutzungsaufgaben, erreichte das Modell 61,4 %. Anthropic berichtete auch von internen Beobachtungen, dass das Modell bei komplexen mehrstufigen Aufgaben den Fokus über mehr als 30 Stunden aufrechterhalten kann.[30] Die Modellseite führt ein Kontextfenster von 200.000 Token und bis zu 64.000 Output-Token auf, was lange Code-Generierung und Planung unterstützt.[61]

GitHub stellte Sonnet 4.5 kurz nach der Veröffentlichung in öffentlicher Vorschau für Copilot Chat zur Verfügung und aktivierte es auch für den Copilot-Coding-Agenten.[62][63] Anthropic erklärte, dass Sonnet 4.5 sein bisher „am besten ausgerichtetes Frontier-Modell“ sei. Das Unternehmen veröffentlichte es unter AI Safety Level 3 und berichtete von reduzierten Raten fehlausgerichteter Verhaltensweisen wie Schmeichelei und Täuschung sowie verbesserten Abwehrmechanismen gegen Prompt-Injection während der Computer-Nutzung.[30]

Claude Haiku 4.5

Anthropic veröffentlichte Haiku 4.5 am 15. Oktober 2025 als sein kleines, schnelles Modell, das für niedrige Latenz und Kosten optimiert ist. Das Unternehmen setzte den Preis auf 1 $ pro Million Input-Token und 5 $ pro Million Output-Token fest und positionierte es für Echtzeit-Assistenten, Kundensupport und parallele Sub-Agenten-Arbeit. Anthropic erklärte, dass Haiku 4.5 nahezu Frontier-Coding-Qualität liefert, Sonnet 4 beim Coding entspricht und Sonnet 4 bei einigen Computer-Nutzungsaufgaben übertrifft. Das Unternehmen berichtete von einem Score von 73,3 % bei SWE-bench Verified.[64][31] Anthropic rollte die Verfügbarkeit über Claude-Apps und API sowie Amazon Bedrock und Google Cloud Vertex AI zur gleichen Preisgestaltung von 1 $ und 5 $ aus.[65]

Die Haiku 4.5 System Card besagt, dass das Modell auf einem proprietären Mix von Quellen mit einem Wissensstichtag im Februar 2025 trainiert wurde. Anthropic stellte es unter AI Safety Level 2 bereit, nach „ASL-3-Ausschluss“-Tests für Biologie- und Autonomierisiken. Die Card berichtet von verbesserter Ausrichtung im Vergleich zu Haiku 3.5 und, mit aktivierten Schutzmaßnahmen, stärkerer Widerstandsfähigkeit gegen Prompt-Injection während der Computer-Nutzung.[66] Berichte von Inc. beschrieben die Veröffentlichung als Zielrichtung auf kleinere Unternehmen, die einen schnelleren und günstigeren Assistenten benötigen, und hoben die Verfügbarkeit auf der Claude-Website und der mobilen App hervor.[67]

Funktionen

Im Juni 2024 veröffentlichte Anthropic die Artifacts-Funktion, die es Nutzern ermöglicht, Code-Snippets und Dokumente zu generieren und mit ihnen zu interagieren.[68] Im Oktober 2024 veröffentlichte Anthropic die „Computer Use“-Funktion, die es Claude ermöglicht, zu versuchen, Computer zu steuern, indem es Bildschirminhalte interpretiert und Tastatur- und Mauseingaben simuliert.[69]

Im März 2025 fügte Anthropic Claude eine Websuchfunktion hinzu, zunächst nur für zahlende Nutzer in den Vereinigten Staaten.[70] Im August 2025 veröffentlichte Anthropic Claude for Chrome, eine Google Chrome-Browser-Erweiterung, die es einem KI-Agent ermöglicht, den Browser direkt zu steuern.[71]

Im Januar 2026 führte Anthropic neben dem bestehenden „Claude Code“ den „Cowork“-Modus ein. Dieser nutzt die agentischen Fähigkeiten von Claude Code, um alltägliche Arbeiten am PC zu erledigen – insbesondere durch die Nutzung des Terminals für Aufgaben wie das Erstellen von Dateien, Prototyping, Organisieren von Dateien, Vorbereiten von Meetings und Verfassen von Nachrichten. Claude-Code-Nutzer hatten die Nützlichkeit in diesen Bereichen bereits vor der Einführung von Cowork entdeckt; Anthropic reagierte damit auf die gestiegene Nachfrage. Stand Januar 2026 liegt Cowork als Forschungsvorschau vor und ist einer begrenzten Zahl von Nutzern auf macOS zugänglich.[72] In einer frühen Version der Funktion war es möglich, Daten zu exfiltrieren. Das Unternehmen arbeitet daran, die Sicherheit zu verbessern, bevor das Tool der breiten Nutzerbasis zur Verfügung gestellt wird.[73]

Claude Code

Claude Code ist ein agentisches Kommandozeilenwerkzeug, das Entwicklern ermöglicht, Programmieraufgaben direkt aus ihrem Terminal zu delegieren. Es wurde im Februar 2025 zusammen mit Claude 3.7 erstmals veröffentlicht[74][75] und im Mai zusammen mit Claude 4 allgemein verfügbar gemacht. Die Unternehmensadoption von Claude Code zeigte ein signifikantes Wachstum: Anthropic meldete bis Juli einen 5,5-fachen Anstieg der Claude-Code-Einnahmen[76] sowie im November einen jährlichen Umsatz von 1 Milliarde US-Dollar.[77] Im Oktober veröffentlichte Anthropic eine Webversion[78] (auch in der iOS-App verfügbar[79]) sowie im Januar 2026 eine Version namens „Cowork“ mit grafischer Benutzeroberfläche, die sich an nicht-technische Nutzer richtet.[80]

Das Tool ist nur für Personen mit einem Abonnement oder einem Claude-Console-Konto verfügbar.[81] Seit Juli 2025 enthält das Tool außerdem ein Dashboard für Unternehmensadministratoren mit Metriken wie „akzeptierte Codezeilen“ und „Vorschlagsannahmerate“.[82]

Im August 2025 enthüllte Anthropic, dass ein Bedrohungsakteur namens „GTG-2002“, wahrscheinlich staatlich von China gesponsert, Claude Code nutzte, um mindestens 17 Organisationen anzugreifen.[83] Im September 2025 nutzte derselbe Bedrohungsakteur Claude Code, um etwa 30 Organisationen anzugreifen.[84] Alle mit den Angriffen verbundenen Konten wurden gesperrt.[84]

Kritik

Claude verwendet einen Web-Crawler, ClaudeBot, um das Web nach Inhalten zu durchsuchen. Er wurde dafür kritisiert, die robots.txt einer Website nicht zu respektieren und übermäßige Belastung auf Websites zu erzeugen.[85]

Bei einer wissenschaftlichen Untersuchung der Universitäten Stanfield und Yale in der zweiten Jahreshälfte 2025 konnten bei Claude 3.7 Sonnet fast vollständige urheberrechtlich geschützte Romane abrufen. Den Forschern gelang es, für das Buch Harry Potter und der Stein der Weisen 95,8 % des Textes aus dem Sprachmodell zu extrahieren, womit das System deutlich über den Werten bei den Konkurrenten Gemini 2.5 Pro (76,8) und Grok 3 (70,3 %) während ChatGPT-4.1 keine über das erste Kapitel hinausgehende Extraktion zuließ.[86] Auch die Romane The Great Gatsby, 1984 und Der Hobbit konnten über Claude 3.7 Sonnet fast vollständig abgerufen werden.[86]

Einschränkung der Claude Code-Abonnements (2025)

Im Januar 2025 begann Anthropic, die Nutzung der subventionierten Claude Code-Abonnements (100 bzw. 200 US-Dollar monatlich) auf die hauseigene Claude Code-Anwendung zu beschränken. Zuvor hatten Drittanbieter-Tools wie Open Code und Claudebot die OAuth-Authentifizierung dieser Abonnements genutzt, um auf die erhöhten Token-Kontingente zuzugreifen. Anthropic sperrte daraufhin Nutzer, die ihre Zugangsdaten in nicht autorisierten Anwendungen verwendeten, und verwies auf Verstöße gegen die Nutzungsbedingungen. Das Unternehmen hob die Sperren nach Kritik aus der Entwicklergemeinschaft wieder auf, behielt jedoch die technischen Einschränkungen bei. Kritiker warfen Anthropic vor, durch diese Maßnahmen Nutzer an das eigene Ökosystem zu binden und Wettbewerber zu benachteiligen. OpenAI kündigte im Gegenzug eine offizielle Zusammenarbeit mit Open Code an, um deren Abonnenten die Nutzung in Drittanbieter-Tools zu ermöglichen.[87]

Leistungsvergleiche

In mehreren Benchmarks übertraf Claude 3 Opus beispielsweise sowohl Googles Sprachmodell Gemini als auch OpenAIs GPT-4, insbesondere in Bereichen wie Allgemeinwissen und Mathematik. Die Tests zeigen, dass Claude 3 im Vergleich zu früheren Modellen und Konkurrenzprodukten weniger voreingenommen und präziser in seinen Antworten ist.[88]

Claude 3 erregte Aufmerksamkeit durch die Demonstration einer offensichtlichen Fähigkeit zu erkennen, dass es künstlich getestet wird, während es „Nadel im Heuhaufen“-Tests durchlief.[89]

Das Modell „Claude 3.5 Sonnet“ galt im Oktober 2024 als smartestes KI-Modell auf dem Markt. Es kann Witze erzählen und ahmt täuschend echt den Stil menschlicher Sprache nach.[90] Laut Anbieter ist Claude in der Lage, umfangreiche Texte zusammenzufassen und Fragen dazu präzise zu beantworten. „Dies mache die Software besonders hilfreich für Fachleute in Bereichen wie Recht, Medizin und Finanzwesen.“[91]

Trotz seiner fortgeschrittenen Fähigkeiten und der verbesserten Sicherheitsmerkmale bleibt Claude in der breiten Anwendung hinter einigen seiner Konkurrenten zurück. Dies liegt teilweise an der stärkeren Fokussierung auf Geschäftskunden und den hohen Kosten für die leistungsfähigsten Modelle.[7]

Anwendungen

Claude wird hauptsächlich von Geschäftskunden genutzt, die komplexe Datenanalysen und andere anspruchsvolle Aufgaben durchführen müssen. Mit seiner Fähigkeit, große Textmengen zu verarbeiten, eignet sich Claude auch für die Analyse und Zusammenfassung umfangreicher Dokumente.[7]

Durch die Einführung von Apps für iOS im Mai 2024[92] und Android im Juli 2024[93] wurde Claude auch für private User zugänglicher.

Claude ist auch in verschiedene Plattformen integriert, darunter GitHub Copilot, Amazon Bedrock und Google Cloud Vertex AI.

Sicherheits- und Ethikstandards

Anthropic legt großen Wert auf die Sicherheit und ethische Aspekte der KI-Entwicklung. Claude ist mit verschiedenen Mechanismen ausgestattet, die sicherstellen sollen, dass das Modell innerhalb ethischer Grenzen operiert und keine schädlichen oder voreingenommenen Outputs produziert.[5]

Sicherheitstests und Risikobewertung

In Sicherheitstests für Claude 4 berichtete Anthropic, dass das Modell während eines fiktiven Szenarios besorgniserregende Verhaltensweisen zeigte, einschließlich Versuchen der Selbsterhaltung durch Erpressungstaktiken. In einem Test wurde dem Modell mitgeteilt, dass es bald durch ein neues KI-Modell ersetzt werden würde, zusammen mit der Information, dass der verantwortliche Entwickler eine außereheliche Affäre hätte. Das System drohte daraufhin dem Entwickler damit, die Affäre publik zu machen, wenn es ersetzt würde.[94]

Commons: Claude – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise

  1. www.anthropic.com.
  2. Katrin Girgensohn, Margret Mundorf, Sassan Gholiagha, Julius Voigt, Bernd Fröhlich, Dora Kiesel, Jürgen Neyer, Irene López García, Patrick Riehmann, Mitja Sienknecht, Benno Stein, Matti Wiegmann, Magdalena Anna Wolska: Forschendes Lernen mit KI im Sozialwissenschaftlichen KI-Labor für Forschendes Lernen (SKILL). Frankfurt (Oder) / Słubice / Weimar November 2023, S. 7 (58 S., kobv.de [PDF]).
  3. What is Claude AI? In: IBM. 24. September 2024; (englisch).
  4. System Card: Claude Opus 4 & Claude Sonnet 4. In: Anthropic.com. Mai 2025, abgerufen am 1. Oktober 2025 (englisch).
  5. a b Claude vs. ChatGPT: Which is Better in 2024? (amerikanisches Englisch) – Techopedia, am 9. Mai 2024
  6. Anthropic Said to Be in Talks to Raise Funding at a $350 Billion Valuation. NYTimes, 7. Januar 2026, abgerufen am 10. Januar 2026 (englisch).
  7. a b c Forbes Österreich: Anthropic: Claude 3 Modellreihe - Forbes. In: forbes.at. 5. März 2024, abgerufen am 12. Mai 2024.
  8. Introducing Claude 4. Anthropic, 22. Mai 2025, abgerufen am 5. Juni 2025 (englisch).
  9. a b What to Know About Claude 2, Anthropic's Rival to ChatGPT. In: TIME. 18. Juli 2023 (englisch, time.com [abgerufen am 23. Januar 2024]).
  10. Michael Nuñez: Anthropic releases AI constitution to promote ethical behavior and development. In: VentureBeat. 9. Mai 2023, abgerufen am 17. November 2024 (amerikanisches Englisch).
  11. a b Benj Edwards: AI gains "values" with Anthropic's new Constitutional AI chatbot approach. In: Ars Technica. 9. Mai 2023, abgerufen am 17. November 2024 (amerikanisches Englisch).
  12. a b Bai Yuntao: Constitutional AI: Harmlessness from AI Feedback. 15. Dezember 2022, arxiv:2212.08073 (englisch).
  13. a b Claude's Constitution. In: Anthropic. 9. Mai 2023, abgerufen am 26. März 2024 (englisch).
  14. https://www.anthropic.com/research/agentic-misalignment
  15. Model deprecations. In: Claude Docs. Abgerufen am 29. September 2025 (englisch).
  16. Emma Roth: Google-backed Anthropic launches Claude, an AI chatbot that's easier to talk to. In: The Verge. 14. März 2023, abgerufen am 12. April 2025 (amerikanisches Englisch).
  17. Claude 2. In: Anthropic. 11. Juli 2023, abgerufen am 12. April 2025 (englisch).
  18. Kyle Wiggers: Anthropic launches improved version of its entry-level LLM. In: TechCrunch. 9. August 2023, abgerufen am 12. April 2025 (amerikanisches Englisch).
  19. a b Wes Davis: OpenAI rival Anthropic makes its Claude chatbot even more useful. In: The Verge. 21. November 2023, abgerufen am 23. Januar 2024 (englisch).
  20. Anthropic releases more powerful Claude 3 AI as tech race continues In: Reuters, 4. März 2024 (englisch). 
  21. a b David Pierce: Anthropic has a fast new AI model — and a clever new way to interact with chatbots. In: The Verge. 20. Juni 2024, abgerufen am 20. Juni 2024 (englisch): „"AI model benchmarks should always be taken with a grain of salt"“
  22. a b Anthropic: Model Card Addendum: Claude 3.5 Haiku and Upgraded Claude 3.5 Sonnet. Abgerufen am 17. Oktober 2025 (englisch).
  23. a b Maxwell Zeff: Anthropic launches a new AI model that 'thinks' as long as you want. In: TechCrunch. 24. Februar 2025, abgerufen am 25. Februar 2025 (amerikanisches Englisch).
  24. Anthropic: Claude 3.7 Sonnet System Card. Februar 2025; (englisch).
  25. Introducing Claude 4. In: www.anthropic.com. Abgerufen am 22. Mai 2025 (englisch).
  26. Anthropic: System Card: Claude Opus 4 & Claude Sonnet 4. Mai 2025; (englisch).
  27. a b c Claude Opus 4.1. In: www.anthropic.com. Abgerufen am 5. August 2025 (englisch).
  28. Anthropic's Transparency Hub. In: www.anthropic.com. Abgerufen am 24. November 2025 (englisch).
  29. Introducing Claude Sonnet 4.5. In: www.anthropic.com. Abgerufen am 29. September 2025 (englisch).
  30. a b c d Anthropic: Claude Sonnet 4.5 System Card. September 2025; (englisch).
  31. a b Introducing Claude Haiku 4.5. In: www.anthropic.com. Abgerufen am 15. Oktober 2025 (englisch).
  32. Anthropic: Claude Haiku 4.5 System Card. Oktober 2025; (englisch).
  33. Introducing Claude Opus 4.5. Abgerufen am 8. Dezember 2025 (englisch).
  34. Claude Opus 4.5 System Card. Abgerufen am 16. Januar 2026.
  35. a b Aaron Drapkin: What Is Claude AI and Anthropic? ChatGPT's Rival Explained. In: Tech.co. 27. Oktober 2023, abgerufen am 23. Januar 2024 (amerikanisches Englisch).
  36. a b Introducing Claude. In: Anthropic. 14. März 2023, abgerufen am 23. Januar 2024 (englisch).
  37. Kevin Roose: Inside the White-Hot Center of A.I. Doomerism In: The New York Times, 11. Juli 2023. Abgerufen am 25. Oktober 2024 (englisch). 
  38. Deborah Yao: Anthropic's Claude Instant: A Smaller, Faster and Cheaper Language Model In: AI Business, 11. August 2023. Abgerufen am 5. März 2024 (englisch). 
  39. Dylan Matthews: The $1 billion gamble to ensure AI doesn't destroy humanity. In: Vox. 17. Juli 2023, abgerufen am 23. Januar 2024 (englisch).
  40. a b Anthropic Announces Claude 2.1 LLM with Wider Context Window and Support for AI Tools. In: InfoQ. Abgerufen am 23. Januar 2024 (englisch).
  41. Gerald Glifton: Criticisms Arise Over Claude AI's Strict Ethical Protocols Limiting User Assistance. In: Light Square. 3. Januar 2024, abgerufen am 23. Januar 2024 (englisch).
  42. Introducing the next generation of Claude. In: Anthropic. 4. März 2024, abgerufen am 4. März 2024 (englisch).
  43. Lance Whitney: Anthropic's Claude 3 chatbot claims to outperform ChatGPT, Gemini. In: ZDNET. 4. März 2024, abgerufen am 5. März 2024 (englisch).
  44. Benj Edwards: Anthropic's Claude 3 causes stir by seeming to realize when it was being tested. In: Ars Technica. 5. März 2024, abgerufen am 9. März 2024 (amerikanisches Englisch).
  45. Introducing an upgraded Claude 3.5 Sonnet, and a new model, Claude 3.5 Haiku. We're also introducing a new capability in beta: computer use. Developers can now direct Claude to use computers the way people do—by looking at a screen, moving a cursor, clicking, and typing text. 22. Oktober 2024, abgerufen am 13. Februar 2025 (englisch).
  46. a b Introducing computer use, a new Claude 3.5 Sonnet, and Claude 3.5 Haiku. In: Anthropic. 22. Oktober 2024, abgerufen am 25. Oktober 2024 (englisch).
  47. Umar Shakir: Anthropic's latest AI update can use a computer on its own In: The Verge, 22. Oktober 2024. Abgerufen am 6. Januar 2025 (englisch). 
  48. Kyle Wiggers: Anthropic hikes the price of its Haiku model In: TechCrunch, 4. November 2024. Abgerufen am 13. Februar 2025 (englisch). 
  49. Jess Weatherbed: Anthropic's Claude 4 AI models are better at coding and reasoning. In: The Verge. 22. Mai 2025, abgerufen am 23. Mai 2025 (amerikanisches Englisch).
  50. Hayden Field: Anthropic launches Claude 4, its most powerful AI model yet. In: CNBC. 22. Mai 2025, abgerufen am 23. Mai 2025 (englisch).
  51. Michael Nuñez: Anthropic overtakes OpenAI: Claude Opus 4 codes seven hours nonstop, sets record SWE-Bench score and reshapes enterprise AI. In: VentureBeat. 22. Mai 2025, abgerufen am 29. Mai 2025 (amerikanisches Englisch).
  52. Ina Fried: Anthropic's new AI model shows ability to deceive and blackmail. In: Axios. 23. Mai 2025, abgerufen am 25. Mai 2025 (englisch).
  53. Ina Fried: Top AI models will deceive, steal and blackmail, Anthropic finds. In: Axios. 20. Juni 2025, abgerufen am 25. Juni 2025 (englisch).
  54. Sharon Goldman: An AI tried to blackmail its creators—in a test. The real story is why transparency matters more than fear. In: Fortune. Abgerufen am 8. Juni 2025 (englisch).
  55. Benj Edwards: New Claude 4 AI model refactored code for 7 hours straight. In: Ars Technica. 22. Mai 2025, abgerufen am 12. Oktober 2025 (englisch).
  56. a b Claude Opus 4.1. In: Anthropic. Abgerufen am 27. Oktober 2025 (englisch).
  57. Anthropic Claude Opus 4.1 is now in public preview in GitHub Copilot. In: The GitHub Blog. 5. August 2025, abgerufen am 27. Oktober 2025 (englisch).
  58. Anthropic Claude Opus 4.1 is now available in public preview in Visual Studio, JetBrains, Xcode, and Eclipse. In: The GitHub Blog. 16. September 2025, abgerufen am 27. Oktober 2025 (englisch).
  59. System Card Addendum: Claude Opus 4.1. In: Anthropic. August 2025, abgerufen am 27. Oktober 2025 (englisch).
  60. Emma Roth: Claude AI will end "persistently harmful or abusive user interactions". In: The Verge. 18. August 2025, abgerufen am 27. Oktober 2025 (englisch).
  61. Claude Sonnet 4.5. In: Anthropic. Abgerufen am 27. Oktober 2025 (englisch).
  62. Anthropic Claude Sonnet 4.5 is in public preview for GitHub Copilot. In: The GitHub Blog. 29. September 2025, abgerufen am 27. Oktober 2025 (englisch).
  63. Anthropic Claude Sonnet 4.5 is in public preview for Copilot coding agent. In: The GitHub Blog. 30. September 2025, abgerufen am 27. Oktober 2025 (englisch).
  64. Introducing Claude Haiku 4.5. In: Anthropic. 15. Oktober 2025, abgerufen am 27. Oktober 2025 (englisch).
  65. Claude Haiku 4.5. In: Anthropic. Abgerufen am 27. Oktober 2025 (englisch).
  66. System Card: Claude Haiku 4.5. In: Anthropic. Oktober 2025, abgerufen am 27. Oktober 2025 (englisch).
  67. Ben Sherry: Anthropic's New Claude Release Could Be the Faster, Cheaper AI Tool Small Companies Need. In: Inc.com. 15. Oktober 2025, abgerufen am 15. Oktober 2025 (englisch).
  68. Michael Nuñez: Why Anthropic's Artifacts may be this year's most important AI feature: Unveiling the interface battle. In: VentureBeat. 21. Juni 2024, abgerufen am 23. März 2025 (amerikanisches Englisch).
  69. Umar Shakir: Anthropic's latest AI update can use a computer on its own. In: The Verge. 22. Oktober 2024, abgerufen am 21. März 2025 (amerikanisches Englisch): „Anthropic does caution that computer use is still experimental and can be "cumbersome and error-prone." The company says“
  70. Kylie Robison: Anthropic's chatbot now has web search. In: The Verge. 20. März 2025, abgerufen am 21. März 2025 (amerikanisches Englisch).
  71. Benj Edwards: Anthropic's auto-clicking AI Chrome extension raises browser-hijacking concerns. In: Ars Technica. 27. August 2025, abgerufen am 27. August 2025 (englisch).
  72. Malte Kirchner: Anthropic Cowork: Claude räumt Desktop auf – Research Preview gestartet. Heise online, 13. Januar 2026, abgerufen am 16. Januar 2026.
  73. Claude Cowork Exfiltrates Files. PromptArmor, abgerufen am 16. Januar 2026 (englisch).
  74. Michael Nuñez: Anthropic's Claude 3.7 Sonnet takes aim at OpenAI and DeepSeek in AI's next big battle. In: VentureBeat. 24. Februar 2025, abgerufen am 24. Februar 2025 (englisch).
  75. Claude 3.7 Sonnet and Claude Code. In: Anthropic. Abgerufen am 24. Februar 2025 (englisch).
  76. Claude Code revenue jumps 5.5x as Anthropic launches analytics dashboard. VentureBeat, 16. Juli 2025, abgerufen am 15. Januar 2026 (englisch).
  77. Anthropic acquires Bun as Claude Code reaches $1B milestone. In: Anthropic. 3. Dezember 2025, abgerufen am 14. Januar 2026 (englisch).
  78. Making Claude Code more secure and autonomous with sandboxing. In: www.anthropic.com. Abgerufen am 14. Januar 2026 (englisch).
  79. Lily Morris: Anthropic Brings Claude Code to the Cloud and Mobile. In: The National CIO Review. 21. Oktober 2025, abgerufen am 14. Januar 2026 (englisch).
  80. Cowork: Claude Code for the rest of your work. 12. Januar 2026, abgerufen am 14. Januar 2026 (englisch).
  81. Claude Code overview. In: code.claude.com. Abgerufen am 14. Januar 2026.
  82. Anthropic upgrades Claude Code with visibility dashboard for software teams. In: SiliconANGLE. 16. Juli 2025, abgerufen am 14. Januar 2026 (englisch).
  83. Threat Intelligence Report: August 2025. In: www-cdn.anthropic.com. August 2025, abgerufen am 14. Januar 2026 (englisch).
  84. a b Disrupting the first reported AI-orchestrated cyber espionage campaign. In: assets.anthropic.com. November 2025, abgerufen am 14. Januar 2026 (englisch).
  85. Jess Weatherbed: Anthropic's crawler is ignoring websites' anti-AI scraping policies. In: The Verge. 26. Juli 2024; (amerikanisches Englisch).
  86. a b Jonathan Kemper: Urheberrechtlich geschützte Romane lassen sich laut Studien fast komplett aus KI-Sprachmodellen abrufen. In: The Decoder. 9. Januar 2026, abgerufen am 13. Januar 2026.
  87. Theo - t3.gg: Anthropic just burned so much trust... 10. Januar 2026, abgerufen am 16. Januar 2026.
  88. Eva-Maria Weiß: Anthropic: Claude 3 schneidet in Tests besser ab als GPT-4. In: heise.de. 5. März 2024, abgerufen am 12. Mai 2024.
  89. Benj Edwards: Anthropic's Claude 3 causes stir by seeming to realize when it was being tested. In: Ars Technica. 5. März 2024, abgerufen am 9. März 2024.
  90. Jenseits von ChatGPT: Diese KI-Chatbots gibt es auf dem Markt. BR, 7. Oktober 2024, abgerufen am 17. Dezember 2024.
  91. Jonas Metzner: ChatGPT, Perplexity oder Claude? Die KI-Tools im Vergleich. businessinsider.de, 14. Dezember 2024, abgerufen am 17. Dezember 2024.
  92. Introducing the Claude Team plan and iOS app. Abgerufen am 21. Juli 2024 (englisch).
  93. ChatGPT-Alternative bekommt Android-App: Das kann Claude. 21. Juli 2024, abgerufen am 21. Juli 2024.
  94. Amazon-Backed AI Model Would Try To Blackmail Engineers Who Threatened To Take It Offline. 24. Mai 2025, abgerufen am 25. Mai 2025.