Eine Rückkehr nach 20 Jahren: Vom CEO zum Entwickler, ein neuer Anfang mit einem KI-Chatbot

Im Oktober 2005 ließ ich mein Leben in Frankfurt, Deutschland, hinter mir und gründete in Kingston-Upon-Thames, einer wunderschönen Stadt am Rande von London, ein Unternehmen namens M-BIZ Global Company Limited. Alles begann mit einem einzigen Vertrag, der mit Samsung Mobile (Hauptsitz in Korea) unterzeichnet wurde.
Unser Geschäftsmodell war eine innovative Vertriebsmethode für mobile Spiele namens "Try and Buy“. Nutzer konnten beliebte Spiele wie Tetris für etwa 60 Sekunden ausprobieren (Try), und nachdem das Spiel automatisch gesperrt wurde, konnten sie die Vollversion über eine Premium-SMS-Zahlung erwerben (Buy). Da diese Spiele auf Feature-Phones vor der Smartphone-Ära vorinstalliert waren, waren die Ergebnisse jenseits aller Vorstellungskraft.
Ein einzelner Softwareentwickler, der von Südkorea nach Europa gezogen war, wurde augenblicklich zum CEO und Gründer eines globalen Unternehmens, das mit Samsung-Mobiltelefonen in rund 60 Ländern weltweit massive Einnahmen generierte. Mit dem Wachstum des Unternehmens stellte ich neue Kollegen ein und entfernte mich naturgemäß immer weiter von der Welt der Softwareentwicklung, die ich so sehr liebte.
Seitdem sind fast 20 Jahre vergangen. Das Geschäft wurde größtenteils abgewickelt, und auch der letzte Senior-Entwickler, der an meiner Seite stand, verabschiedete sich Ende Juni 2025 mit einem lachenden und einem weinenden Auge. Obwohl ich den Fokus des Geschäfts auf KI-Chatbots verlagert hatte, musste ich die meiste Zeit damit verbringen, andere verstreute Projekte abzuschließen.
Vor allem war es eine immense Herausforderung, nach fast 19 Jahren Abwesenheit von der Entwicklerszene wieder mit dem Programmieren anzufangen. Die Welt war nun voll von Technologien, die mir völlig fremd waren, wie AWS, Node.js und TypeScript.
Schließlich, am 1. Juli 2025, begann ich mit dem Gefühl, keinen Rückzieher mehr machen zu können, einen KI-Chatbot-Dienst namens „AI Talk“ komplett im Alleingang zu entwickeln. Obwohl alle in meinem Umfeld Claude Code empfahlen, hatte ich zufällig ein kostenloses Guthaben von 300 $ von der Google Cloud, also entschied ich mich, zum Üben das Gemini CLI zu verwenden.
Mit dem Aufkommen von ChatGPT entwickelte ich ein tiefes persönliches Interesse an der Retrieval-Augmented Generation (RAG)-Technologie. Ich war völlig vertieft in den Prozess, mit unbekanntem Python-Code umzugehen, Daten in eine Vektor-DB wie Pinecone einzubetten und mit der OpenAI-API automatisierte Antworten zu generieren, basierend auf Daten, die mittels Kosinus-Ähnlichkeit ausgewählt wurden. Natürlich waren RAG-Dienste durch LangChain bereits etabliert, und auch ich hatte das Ziel, selbst einen Dienst wie Chatbase zu entwickeln.
Bei der Planung eines B2B-Geschäftsmodells wurde ich auf den Shopify App Store als einen Marktplatz aufmerksam, der mit Google Play oder dem Apple App Store vergleichbar ist. Besonders attraktiv war die Richtlinie, auf die 15%ige Provision zu verzichten, bis der lebenslange Bruttoumsatz einer App 1 Million US-Dollar erreicht. Darüber hinaus boten das standardmäßige Remix-Framework und die Polaris React-Komponentenbibliothek eine hervorragende Entwicklungsumgebung, die die Last des UI/UX-Designs für die Admin-Oberfläche erheblich erleichterte.
Allerdings hatten andere KI-Chatbot-Dienste, die RAG verwendeten, einen klaren Nachteil: die Unannehmlichkeit, die Daten ständig neu trainieren zu müssen, wann immer Produktinformationen eines Shops hinzugefügt oder aktualisiert wurden. Auch ich dachte, dies sei eine unvermeidbare technische Einschränkung. Aber nachdem ich von Shopifys Storefront API (MCP) erfahren hatte, traf ich die mutige Entscheidung, RAG aufzugeben und es vollständig durch die Storefront API zu ersetzen.
Von Anfang an zu verstehen, wie MCP funktionierte, war nicht einfach. Ich entschied mich für die OpenAI-API, die etwas günstiger und zugänglicher war als die Claude-API. Außerdem fügte ich eine Option hinzu, mit der Shop-Betreiber ihren eigenen OpenAI-API-Schlüssel eingeben können, um das standardmäßige Nutzungslimit um das Zehnfache zu erhöhen.
Die Leistung des implementierten MCP war wirklich zufriedenstellend. Bei allgemeinen Anfragen wie „Hallo?“ lieferte OpenAI eine natürliche Antwort. Bei spezifischen Fragen wie „Welche Produkte kann man kaufen?“ durchsuchte es in Echtzeit die gesamten internen Daten des Shops, um die genaueste Antwort zu geben.
Am wichtigsten ist jedoch, dass dieses System eine besondere Funktion hat, die den Nutzer auf natürliche Weise zur Bestellaufgabe führt. Dies war ein entscheidendes Alleinstellungsmerkmal, das durch die Nutzung von MCP ermöglicht wurde – eine Funktion, die mit einem RAG-Ansatz, der lediglich Informationen abruft und darstellt, schwer zu unterstützen ist.
Wenn Sie die Live-Demo selbst erleben möchten, besuchen Sie bitte den untenstehenden Link und klicken Sie links auf die Schaltfläche „View demo store“.
https://apps.shopify.com/ai-talk-checkout-assistant
Als nächsten Schritt plane ich einen Dienst zur Verwaltung von Kundenbestellungen über den Customer accounts MCP server. Sobald diese Funktion hinzugefügt ist, wird der KI-Assistent in der Lage sein, erweiterte Unterstützung zu bieten, wie z. B. die Überprüfung des Bestellstatus eines Kunden und das Nachschlagen von Bestelldetails.
Fazit
Der allererste Anfang all dieser Programmierarbeit begann mit dem Gemini CLI. Als jedoch die Anzahl der zu entwickelnden Funktionen wuchs, wechselte ich ganz natürlich zu Claude Code. Die wichtige Erkenntnis ist, dass die Entwicklung einer Shopify-App wie dieser auch ohne ein vollständiges Verständnis der TypeScript-Syntax mit Hilfe von KI durchaus möglich ist.
Und so bin ich jetzt, nach 20 Jahren, wieder ein Solo-Entwickler. Die Unterstützung durch KI-Programmierassistenten und Spitzentechnologien wie MCP lässt mein Herz wieder vor Aufregung rasen.
Dieser Text wurde ebenfalls mit Hilfe von Gemini 2.5 Pro erstellt und das Bild wurde generiert.