Der Prompting-Blues: Wenn wir uns in endlosen Iterationen verlieren

Von Michael Ammann Veröffentlicht am 5. September 2025

Drei Jahre nach dem Durchbruch von GPT-3.5 sind wir an einem spannenden Punkt: Die Technologie bleibt – aber viele haben genug vom endlosen Prompten.

Wir wollen Outcomes, nicht nur Output.

Prompt-Engineering ist weiterhin wichtig, um Sprachmodelle zu steuern.
Gleichzeitig wird Prompten für viele zur Schreibblockade 2.0: Man starrt nicht mehr auf ein leeres Blatt, sondern auf einen blinkenden Cursor und überlegt, wie man den nächsten Versuch formuliert (starker Vergleich von Amy Cohanim).
Meine These: Bei administrativen KI-Workflows muss Prompting für Endnutzer im Hintergrund verschwinden.
Keine Chat-Fenster, die alles erlauben – sondern klare Knöpfe, die gezielt und verlässlich Dinge erledigen.
💡 Frage an euch: Wie wichtig wird der viel besprochene Skill «Prompt Engineering» in drei Jahren noch sein?

Weitere Beiträge

02.09.2025

KI-unterstützte Prozessautomatisierung

Die Art und Weise, wie Unternehmen Bestellungen abwickeln, ist oft komplex:E-Mail, Telefon, Chat, Kundenportal, Website – die Vielfalt der Eingangskanäle...

Häufig gestellte Fragen

  • Eigene KI-Modelle und Fine-Tuning?

    Wir trainieren und betreiben keine eigenen KI-Modelle. Für rund 98 % der Anwendungsfälle sind bestehende Modelle völlig ausreichend und lassen sich so einsetzen, dass sie exakt unsere Anforderungen erfüllen. Zudem erscheinen laufend neue Modelle, die oft günstiger oder spezialisierter sind. Wir prüfen deshalb kontinuierlich, ob ein neues Modell besser zu unseren Anwendungsfällen passt. Ist dies der Fall, wechseln wir entsprechend.

  • Lokale Applikation oder als Service?

    Unsere Lösung stellen wir als SaaS (Software as a Service) bereit. Sie greifen über einen Link auf die Software zu und können diese nach dem Anmelden direkt in der Applikation nutzen.

    Der Vorteil: Sie müssen keine Updates installieren und profitieren dennoch laufend von neuen Funktionen und Verbesserungen.

  • Welche KI-Modelle setzt ihr ein?

    Wir wählen KI-Modelle sorgfältig aus und setzen jeweils das Modell ein, das für den entsprechenden Anwendungsfall am besten geeignet ist. Neue Modelle prüfen wir hinsichtlich Verfügbarkeit, Qualität und Eignung für unsere Anwendungsfälle, bevor wir einen Wechsel vornehmen.
    Derzeit nutzen wir über zertifizierte Microsoft-Azure-Cloudsysteme (100% datenschutzkonform) die Modelle GPT-4o sowie Whisper (Sprache-zu-Text), die auf Schweizer Servern betrieben werden.

  • Warum nicht einfach n8n oder Zapier und CO?

    n8n oder Zapier sind Baukästen, man muss wissen, wie man Workflows modelliert, APIs anbindet und LLMs richtig promptet. Unsere Lösung ist ein fertiges Produkt für KMU: Daten werden automatisch aus Dokumenten, E-Mails und einer Vielzahl von anderen Quellen extrahiert, ergänzt, mit ERP, CRM oder anderen Quelldaten abgeglichen und stehen sofort bereit. Das spart bis zu 10x Zeit – ohne technisches Vorwissen und mit vollem Datenschutz in der Schweiz.

  • Werden Benutzeranfragen über den Chat validiert?

    Eingaben und Ausgaben werden automatisch gefiltert, sensible Daten bleiben isoliert und potenziell gefährliche Aktionen werden zuverlässig blockiert. So gewährleisten wir höchste Sicherheit, volle Transparenz der Datenquellen und eine robuste Abwehr gegen Manipulationsversuche.

    Auf folgende Inhalte wird geprüft:
    – Gewalt, Hass
    – Sexuell
    – Selbstverletzung

  • Wie wird Verhindert, dass Sensible Daten ausgegeben werden?

    OWASP LLM02:2025

    Unsere Lösung schützt zuverlässig vor der ungewollten Offenlegung sensibler Informationen, da das LLM nur die Daten verarbeitet, die der Benutzer bewusst bereitstellt und keinen Zugriff auf interne Systeme oder vertrauliche Datenbestände hat. Durch strikte Trennung, kontrollierte Datenflüsse und kontinuierliche Verbesserungen stellen wir sicher, dass Ihre Informationen jederzeit geschützt bleiben.

  • Warum Companion statt ChatGPT?

    Während sowohl Companion als auch ChatGPT die besten GPT-4-Modelle anbieten, nutzt Companion GPT-4, das in der Schweiz gehostet wird und ist bestrebt künftig Modelle aller führenden LLM-Anbieter sowie Open-Source-Modelle anzubieten. Companion integriert sich abhängig vom Anwendungsfall in die Daten deines Unternehmens und bietet die Möglichkeit individuelle Assistenten und Arbeitsabläufe zu erstellen und einzusetzen. Companion verfügt auch über eine integrierte Prompt-Bibliothek und einen unkomplizierten KI-Support & Sparringpartner aus der Schweiz.

  • Was macht Companion DSGVO-konform?

    Wir hosten alle unsere Dienste auf DSGVO-konformen Servern in der Schweiz. Beispielsweise wird das von uns verwendete GPT-4o-Modell von Microsoft Azure in Zürich gehostet und Mircosoft gewährleistet, dass a) die Daten gemäss der DSGVO behandelt werden und b) OpenAI keinen Zugriff auf die Daten hat. Wir streben künftig ISO270001 und SOC2 Typ 2 Zertifizierungen an und kontinuierliche Einhaltung aller Datenschutzrichtlinien durch einen externen DSB.