Welche grossen AI-Anbieter gibt es?
Die wichtigsten Anbieter im Bereich Sprachmodelle sind aktuell:
- OpenAI (USA): Hersteller von GPT-4o, o1 und o3. Bekanntestes Produkt: ChatGPT.
- Anthropic (USA): Hersteller von Claude. Fokus auf Sicherheit und Zuverlässigkeit.
- Google DeepMind (USA/UK): Hersteller von Gemini. Tief in Google-Produkte integriert.
- Meta (USA): Hersteller von Llama. Open-Source-Modelle, die man selbst betreiben kann.
- Mistral (Frankreich): Europäischer Anbieter, starke Open-Source-Modelle.
- DeepSeek (China): Sehr leistungsfähige Modelle, die mit deutlich geringerem Budget entwickelt wurden.
Die Landschaft ändert sich schnell. Wir bei nuwai evaluieren laufend, welches Modell für welchen Einsatzzweck am besten geeignet ist.
Was ist der Unterschied zwischen ChatGPT und GPT-4?
GPT-4 (bzw. GPT-4o, GPT-4 Turbo) ist das Modell – also die Technologie im Hintergrund. ChatGPT ist das Produkt – die Benutzeroberfläche, über die Sie mit dem Modell interagieren.
Man kann sich das so vorstellen: GPT-4 ist der Motor, ChatGPT ist das Auto. Andere Produkte können denselben Motor verwenden – über die sogenannte API. Genau so bauen auch wir bei nuwai massgeschneiderte Lösungen: Wir nutzen die besten verfügbaren Modelle und bauen die passende Anwendung darum.
Was ist eine API?
API steht für «Application Programming Interface» – eine Schnittstelle, über die Software mit anderer Software kommunizieren kann.
Im AI-Kontext bedeutet das: Anstatt ChatGPT im Browser zu öffnen, können Unternehmen die AI-Modelle direkt in ihre eigenen Systeme einbinden – in ihr CRM, ihre Website, ihre interne Toolchain. Über die API sendet man einen Text (Prompt) und erhält die Antwort zurück, automatisiert und ohne manuelle Eingabe. Das ist die Basis für jede professionelle AI-Integration.
Was bedeutet Open Source vs. Closed Source bei AI?
Closed Source bedeutet, dass der Code und die Modellgewichte geheim bleiben. Sie können das Modell nur über die API des Anbieters nutzen. Beispiele: GPT-4, Claude, Gemini.
Open Source (bzw. Open Weight) bedeutet, dass die Modellgewichte öffentlich verfügbar sind. Sie können das Modell herunterladen und auf eigener Infrastruktur betreiben – ohne Abhängigkeit vom Anbieter. Beispiele: Llama (Meta), Mistral, DeepSeek.
Für Unternehmen mit strengen Datenschutzanforderungen kann ein Open-Source-Modell auf eigener Hardware die beste Option sein.
Was ist Fine-Tuning?
Fine-Tuning ist der Prozess, bei dem ein bereits trainiertes Modell mit zusätzlichen, spezifischen Daten weiter angepasst wird. Man nimmt also ein «generalistisches» Modell und spezialisiert es auf eine bestimmte Aufgabe oder Branche.
Beispiel: Ein Sprachmodell wird mit Tausenden von Kundendienst-Gesprächen einer Versicherung nachtrainiert, damit es den Tonfall, die Produkte und die typischen Fragen dieser Firma besonders gut beherrscht. Fine-Tuning ist aufwendiger als reines Prompt Engineering, liefert aber oft bessere Ergebnisse für spezialisierte Anwendungen.
Was ist RAG (Retrieval-Augmented Generation)?
RAG ist eine Methode, bei der ein Sprachmodell nicht nur aus seinem Training antwortet, sondern zuerst in einer externen Wissensdatenbank nach relevanten Informationen sucht und diese in die Antwort einbezieht.
Stellen Sie sich vor, Sie geben einem Mitarbeitenden ein Firmenhandbuch und sagen: «Beantworte Kundenfragen, aber lies zuerst im Handbuch nach.» Genau das macht RAG – nur automatisiert. Es reduziert Halluzinationen drastisch und ermöglicht es, AI mit firmeneigenem, aktuellem Wissen zu verbinden, ohne das gesamte Modell neu zu trainieren.
Was sind Embeddings?
Embeddings sind numerische Darstellungen von Text (oder Bildern) in einem hochdimensionalen Raum. Vereinfacht: Ein Satz wird in eine lange Liste von Zahlen umgewandelt, die seine «Bedeutung» erfasst.
Warum ist das nützlich? Weil man damit semantische Ähnlichkeit berechnen kann. «Hund» und «Welpe» liegen im Embedding-Raum nahe beieinander, «Hund» und «Steuererklärung» weit auseinander. Embeddings sind die Basis für RAG-Systeme, semantische Suche und Empfehlungssysteme.
Was ist eine Vektor-Datenbank?
Eine Vektor-Datenbank speichert Embeddings und ermöglicht es, schnell nach ähnlichen Inhalten zu suchen. Statt wie eine klassische Datenbank nach exakten Übereinstimmungen zu suchen («zeige alle Einträge mit dem Wort Auto»), sucht sie nach Bedeutungsähnlichkeit («zeige alles, was thematisch mit Mobilität zu tun hat»).
Bekannte Vektor-Datenbanken sind Pinecone, Weaviate, Qdrant und Chroma. Sie sind ein Kernbaustein moderner AI-Anwendungen – besonders wenn es darum geht, firmeneigenes Wissen für AI-Systeme zugänglich zu machen.
Kennenlernen lohnt sich.
60 Minuten reichen, um zu verstehen, ob und wie AI in Ihrem Betrieb Sinn macht.