,

Die Zukunft der Softwareentwicklung: KI-Hype, Legacy-Fallen und der Weg zur Digitalen Transformation

Status der Entwicklung

Ist die Softwareentwicklung, wie wir sie kennen, am Ende?

Ersetzen KIs wie ChatGPT bereits heute menschliche Entwickler?

Und warum ist das Festhalten an alten Systemen das grösste Risiko für dein Unternehmen?

Ein Deep-Dive in die Realität der modernen IT-Architektur.

Wir befinden uns in einem historischen Moment der technologischen Evolution. Wenn du in einer Managementfunktion sitzt, als Investor Strategien bewertst oder als Entscheidungsträger die Weichen für die nächsten fünf Jahre stellst, wirst du derzeit mit einer Flut von Informationen überschüttet. Der Tenor ist oft derselbe: „KI ist der heilige Gral“, „Entwickler sind bald obsolet“ und „Softwarekosten werden gegen Null tendieren“.

Doch Vorsicht. Wenn du diesem Hype blind folgst, droht ein böses Erwachen.

In diesem ausführlichen Artikel werfen wir einen nüchternen, erfahrungsbasierten Blick auf den aktuellen Stand der Softwareentwicklung. Wir kontextualisieren die rasante Entwicklung der letzten zwei Jahrzehnte von HTML5 bis zur GenAI-Revolution und erklären, warum das technische Handwerk nur 20% der Lösung ist.

Dieser Beitrag richtet sich an Führungskräfte ohne tiefes technisches Know-How, an die junge Generation, die die „dunklen Zeiten“ vor 2013 nicht miterlebt hat, und an alle, die verstehen wollen, was unsere digitalisierte Welt im Innersten zusammenhält.


Inhaltsverzeichnis

  1. Der KI-Mythos: Warum Entwickler (noch) unersetzbar sind
  2. Eine Zeitreise: Die Evolution des Codes (1999–2013)
    • Der Meilenstein HTML5: Das Ende der Workarounds
    • Die Bandbreiten-Revolution
  3. Der Paradigmenwechsel ab 2017: Moderne Architekturen
    • Das MVC-Paradigma verstehen
    • Microservices und APIs
    • Der Siegeszug von SaaS (Software as a Service)
  4. Infrastruktur im Wandel: Cloud, Apps und Blockchain
    • Vom Serverraum zur Cloud
    • Die App-Ökonomie
    • Blockchain: Revolution oder Nischenprodukt?
  5. Das Zeitalter der KI (2016 bis heute)
    • Hardware als Wegbereiter
    • GenAI: Realität vs. Marketing
    • KI als Werkzeug, nicht als Architekt
  6. Das Legacy-Dilemma: Warum alte Systeme tickende Zeitbomben sind
    • Lebenszyklus von Software
    • Sicherheit im Zeitalter von KI-Hackern
    • Das Personalproblem bei veralteten Stacks
  7. Die 80/20-Regel der Transformation
    • Warum Programmieren nur ein kleiner Teil ist
    • Solution Design und Requirements Engineering
  8. Fazit: Strategien für die Zukunft

1. Der KI-Mythos: Warum Entwickler (noch) unersetzbar sind

Beginnen wir mit dem „Elefanten im Raum“: Künstliche Intelligenz.

Es herrscht die weitverbreitete Meinung, befeuert durch aggressive Marketingkampagnen grosser Consulting-Firmen, dass KI in der Lage ist, ganze Entwicklungsabteilungen zu ersetzen.

Die Logik scheint bestechend: Wenn eine KI Code schreiben kann, wozu brauche ich dann noch teure Senior-Developer?

Die Gefahr der falschen Strategie

Wenn du als Manager oder Investor darauf setzt, dass KI der primäre Weg ist, um Entwicklungskosten drastisch zu senken, indem du Personal abbaust, begibst du dich auf dünnes Eis. Wer dem Rat folgt, Entwickler und Wissensträger zu entlassen, lässt sich auf eine falsche Fährte locken.

Das grösste Risiko ist nicht technischer, sondern betriebswirtschaftlicher Natur. Software ist nicht nur Code. Sie ist die in Logik gegossene Abbildung deiner Geschäftsprozesse (Business Cases). Deine Entwicklerteams sind die Hüter dieses Wissens. Wenn du diese Teams auflöst, verlierst du das Verständnis darüber, wie deine Use Cases im Detail funktionieren. Diese Teams später wieder aufzubauen, wenn du merkst, dass die KI die Komplexität nicht allein bewältigen kann, wird zu einem Spiessrutenlauf.

Der aktuelle Stand der Dinge

Ich programmiere selbst seit 1999. In meiner Karriere habe ich mein komplettes technisches Wissen fünfmal einem totalen Upgrade unterziehen müssen. Aus dieser Erfahrung kann ich sagen: KI ist ein mächtiges Werkzeug, aber sie ersetzt nicht das Verständnis für Systemarchitektur. Sie generiert Fragmente, keine ganzheitlichen Lösungen.


2. Eine Zeitreise: Die Evolution des Codes (1999–2013)

Um zu verstehen, wo wir heute stehen, müssen wir zurückblicken. Für die junge Generation („Digital Natives“) ist es oft schwer vorstellbar, wie mühsam und fragmentiert das Internet vor nicht allzu langer Zeit war.

Der Meilenstein HTML5: Das Ende der Workarounds

Das Jahr 2013 markiert eine Zäsur. Bevor HTML5 in den meisten Webbrowsern (Chrome, Firefox, Internet Explorer, Safari) flächendeckend funktionierte, war Webentwicklung ein Kampf gegen Windmühlen.

  • Die Browser-Kriege: Entwickler mussten unendlich viele „Hacks“ und Workarounds schreiben, damit eine Webseite auf allen Browsern identisch aussah. Was im Internet Explorer funktionierte, zerschoss das Layout in Firefox.
  • Responsiveness: Die Idee, dass sich eine Webseite automatisch der Bildschirmgrösse anpasst (vom Desktop zum Smartphone), war extrem aufwendig umzusetzen.
  • Multimedia: Um Videos abzuspielen, waren Plugins wie Adobe Flash nötig, die Sicherheitslücken aufrissen und auf mobilen Geräten (dank Steve Jobs‘ Weigerung, Flash auf das iPhone zu bringen) nicht funktionierten.

Mit der Etablierung von HTML5 ab 2013 wurden Standards geschaffen. Audio und Video wurden nativ, Layouts wurden flexibel. Es war das Ende der „Bastel-Ära“ und der Beginn professioneller Web-Applikationen.

Die Bandbreiten-Revolution

Ein weiterer Aspekt, der oft vergessen wird: Vor 2015 war die Netzwerk-Bandbreite weltweit extrem limitiert.

Ich erinnere mich an die Produktion eines Dokumentarfilms in dieser Zeit. Ein Videodownload oder Streaming in hoher Qualität kam als Vertriebsweg schlicht nicht in Frage. Es hätte Tage gedauert. Die Alternative war die physische Distribution auf DVD. Dies erforderte massives Kapital: DVDs mussten gepresst, verpackt und per Post verschickt werden. Doch schon damals war absehbar, dass physische Datenträger bald obsolet würden. Es war eine Zeit des Wartens. Warten darauf, dass die Infrastruktur die Visionen der Software einholt.

Zwischen 2013 und 2017 fand dann der grosse Umbruch statt:

  1. Smartphones setzten sich endgültig durch.
  2. Betriebssystem-Updates (iOS, Android) wurden kontinuierlich ausgeliefert.
  3. Prozessoren wurden leistungsfähig genug für komplexe Berechnungen.
  4. Das Netzwerk (4G/LTE und Glasfaser) wurde schnell genug für die globale Vernetzung.

3. Der Paradigmenwechsel ab 2017: Moderne Architekturen

Ab ca. 2017 änderte sich die Art und Weise, wie wir Software bauen, grundlegend. Wer heute noch Software nach den Prinzipien von 2010 baut, produziert „Legacy Code“ (veralteten Code), noch bevor die Anwendung live geht.

Das MVC-Paradigma verstehen

In dieser Zeit setzte sich der MVC-Ansatz (Model View Controller) als Standard durch. Für Nicht-Techniker lässt sich das so erklären:

Früher war Code oft ein „Spaghetti-Knäuel“. Die Datenbankabfrage, die Berechnungslogik und das Design der Benutzeroberfläche waren wild vermischt. MVC trennt diese Bereiche strikt:

  1. Model (Daten): Wie sehen die Daten aus? (Die Struktur).
  2. View (Ansicht): Was sieht der Benutzer? (Die Darstellung).
  3. Controller (Steuerung): Wer greift wann auf welche Daten zu und übergibt sie an die View?

Dieser Ansatz ermöglichte den Aufstieg moderner Frontend-Frameworks wie Angular, React und Vue.js. Plötzlich konnten Teams parallel arbeiten: Frontend-Entwickler bauten die Oberfläche (View), Backend-Entwickler kümmerten sich um die Logik und Daten (Model/Controller).

Microservices und APIs

Im Backend etablierte sich der Ansatz der Microservices. Anstatt eine riesige, monolithische Anwendung zu bauen („Ein grosser Block Software“), teilt man die Aufgaben in kleine, spezialisierte Applikationen auf.

  • Ein Service kümmert sich nur um den Login.
  • Ein Service kümmert sich nur um den Warenkorb.
  • Ein Service kümmert sich nur um die Rechnungsstellung.

Diese Services kommunizieren über Netzwerke miteinander (APIs – Application Programming Interfaces). Das machte Systeme flexibler, aber auch komplexer. Denn jede Interaktion zwischen Microservices ist eine Netzwerkkommunikation. Ohne das potente, weltweite Netzwerk, das sich ab 2015 etablierte, wäre der Ansatz verteilter Systeme nicht möglich gewesen.

Der Siegeszug von SaaS (Software as a Service)

Technologie treibt Geschäftsmodelle. Mit der Cloud und besseren Browsern starb das alte Modell der Software-Installation.

  • Der veraltete Ansatz (On-Premise): Ein Unternehmen kauft eine CD/DVD, installiert die Software auf dem eigenen Server im Keller. Jeder Kunde hat seine eigene Instanz. Daten liegen lokal. Updates sind mühsam und teuer.
  • Der SaaS-Ansatz: Wir lösen ein Abo. Die Software läuft zentral in der Cloud des Anbieters. Alle Kunden nutzen dieselbe technologische Basis (Multi-Tenant), aber ihre Daten sind logisch getrennt. Updates passieren im Hintergrund, ohne dass der Kunde etwas tun muss.

SaaS hat die Ökonomie der IT verändert, von hohen Einmalinvestitionen (CAPEX) zu monatlichen Betriebskosten (OPEX).


4. Infrastruktur im Wandel: Cloud, Apps und Blockchain

Die Cloud für den Zugriff von überall her

Bis 2013 war ich oft als Serveradministrator physisch in den Büroräumen von Unternehmen, um deren Server zu warten. Jedes KMU hatte seinen eigenen kleinen, oft schlecht gekühlten Serverraum.

Das ist heute fast verschwunden. Server wurden in Datencenter verlagert (Cloud Services wie AWS, Azure, Google Cloud). Heute werden beinahe alle Dienstleistungen und Daten zentral und verteilt in Datencentern bewirtschaftet, die überall auf der Welt stehen. Das Versprechen: Zugriff von überall, zu jeder Zeit, mit jedem Gerät.

Die goldene Ära der Apps

Parallel zum Cloud-Boom entstand die App-Ökonomie. Apps dienen oft als spezialisiertes Frontend für SaaS-Applikationen. Der Vorteil einer nativen App gegenüber einer Webseite im Browser liegt in der Offline-Fähigkeit:

  • Apps können Daten lokal auf dem Gerät (Smartphone/Tablet) speichern.
  • Wenn kein Internet verfügbar ist (z.B. im Zug oder Flugzeug), kann weitergearbeitet werden.
  • Sobald das Netz wieder da ist, synchronisiert die App die Daten mit der Cloud.

Diese Zuverlässigkeit machte das Smartphone zum vollwertigen Arbeitsgerät.

Blockchain: Hype vs. Nutzen

In dieser Phase wurde auch Bitcoin und die dahinterliegende Blockchain-Technologie relevant. Die Kernidee: Dezentralisierung. Daten gehören nicht einem einzelnen Unternehmen, sondern die Verantwortung (und der Besitz der Datenhistorie) wird auf alle Teilnehmer verteilt.

Die skeptische Betrachtung: Trotz des Hypes ist bis heute unklar, ob diese Technologie ausserhalb von Spekulationen (Kryptowährungen) massive Relevanz erreichen wird. Das Problem ist logischer Natur: Eine Blockchain ist ineffizient und teuer im Betrieb (Kryptographie, Energie). Sie ist nur dann sinnvoll, wenn man wirklich keinen zentralen Anbieter will. Wenn jedoch nur ein Anbieter die Blockchain für seine Applikation betreibt (Private Blockchain), führt sich das System ad absurdum. Er könnte die Applikation genauso gut zentralisiert (in einer normalen Datenbank) betreiben und sich den immensen Aufwand sparen.


5. Das Zeitalter der KI (2016 bis heute)

Die Entwicklung von Künstlicher Intelligenz wurde ab 2016 interessant. Warum erst dann? Weil erst zu diesem Zeitpunkt die Rechenleistung der Hardware (speziell GPUs) gross genug war, um die massiven Rechenoperationen für Neuronale Netze durchzuführen.

Trotzdem dauerte es noch bis 2023, bis ChatGPT den „Sputnik-Moment“ auslöste und die Welt wachrüttelte.

GenAI zwischen Realität und Hype

Was verändert sich nun durch LLMs (Large Language Models) und GenAI (Generative AI)?

Wichtig zu verstehen: GenAI ändert nicht die physikalischen Grundlagen der Softwarearchitektur.

  • Es ändert nicht, wie Daten gelagert werden.
  • Es ändert nicht das Prinzip von APIs.
  • Es ändert nicht die Logik von MVC.

KI wird, zumindest mit dem aktuellen Ansatz der statistischen Vorhersage von Worten, nie fähig sein, komplexe, zuverlässige Unternehmens-Applikationen komplett selbstständig „aus dem Nichts“ zu generieren und zu warten. Das Umfeld einer Enterprise-Architektur ist schlicht zu komplex und zu stark von individuellen Business-Regeln abhängig.

KI als Quelle von Fragmenten und Wissen

Wie verändert KI also die Programmierung? Sie agiert als extrem effektiver Assistent. KI kann Code für einzelne Module, Klassen oder Funktionen generieren. Sie liefert das Wissen, wie bestimmte Technologien funktionieren, viel schneller als jede Google-Suche.

Ein Vergleich zur Lernkurve früher: Als ich anfing zu programmieren, waren Bücher die einzige Quelle. Mein erster Chef gab mir ein 10 Zentimeter dickes Buch über das LDAP-Protokoll. „Lies das“, sagte er. Ich musste jede Seite zweimal lesen, um es zu verstehen. Später kamen Blogs und YouTube-Tutorials. Heute liefert die KI die Antwort im nächsten Augenblick.

In den Händen eines Experten, der weiss, wie Systeme gebaut werden, sind Tools wie ChatGPT, Gemini oder Claude Waffen. Sie beschleunigen die Umsetzung massiv. Anwendungen können heute mit einem Bruchteil des Zeitaufwands geschrieben werden, für den ein Team vor KI Jahre gebraucht hätte.

Aber: Man muss wissen, was man tut. Ein Laie, der KI Code generieren lässt, baut ein Kartenhaus.

Tech Stacks: Stabilität vs. Experiment

Heute haben wir ein sehr stabiles Paket von Basistechnologien. Auch wenn für die Lösung eines Problems schnell 20 verschiedene Technologien (ein „Tech Stack“) zum Einsatz kommen, funktioniert deren Zusammenspiel heute so gut, dass immer weniger Workarounds („Hacks“) nötig sind.

Die Kunst liegt in der Auswahl:

  • Zu neu: Wählt man einen Tech Stack, der zu unerprobt ist, riskiert man teure Kurskorrekturen, wenn die Technologie stirbt.
  • Zu alt: Setzt man auf veraltete Technologien, verbaut man sich die Zukunft und findet keine Mitarbeiter mehr.

Ein modernes Team braucht das Gespür für diesen Mittelweg. Für die letzten zwei SaaS-Applikationen, die ich mit einem Team von 15 Experten umsetzte, etablierten wir einen hochmodernen Tech Stack, der sich als äusserst zuverlässig erwies.


6. Das Legacy-Dilemma: Warum alte Systeme tickende Zeitbomben sind

Kommen wir zum vielleicht kritischsten Punkt für Unternehmen heute: Die Veralterung von Software.

Die Frequenz, mit der Applikationen veralten, wird immer kürzer. Eine Faustregel: Wenn eine Applikation 10 Jahre im Einsatz ist, ist sie alt. Sie muss im Normalfall neu geschrieben werden. Updates (Lifecycle Management) können das Leben verlängern, aber irgendwann ist der Kern (die Architektur) faul.

Systeme unter permanentem Beschuss

Warum können wir alte Software nicht einfach laufen lassen? „Never touch a running system“? Dieser Spruch ist tot.

Ein Hauptgrund ist die Sicherheit. Auch Hacker haben Zugriff auf KI. Das Wissen über Sicherheitslücken (Exploits) verbreitet sich rasend schnell. KI hilft Hackern, Schwachstellen in veralteten Bibliotheken automatisiert zu finden. Man könnte alte Systeme in abgesicherten Zonen (hinter Firewalls) isolieren, aber das killt die Usability.

Der Einsatz von veralteten Systemen ist keine Option

Wir als Benutzer haben uns an den Komfort moderner SaaS-Apps gewöhnt. Wir erwarten, dass wir Geschäftsdaten vom Handy aus bedienen können, dass Dinge schnell und intuitiv sind. Wenn ein Unternehmen seinen Mitarbeitern veraltete „DOS-Masken“ oder träge Legacy-Software vorsetzt, passiert Folgendes:

  1. Produktivitätsverlust: Prozesse dauern länger.
  2. Recruiting-Probleme: Es wird zunehmend schwierig, junge Talente zu finden, die diese Systeme überhaupt noch bedienen wollen.

Wer alte Systeme betreut, verschläft die Entwicklung

Aus Sicht eines Arbeitnehmers oder Entwicklers: Wer sich darauf einlässt, alte Systeme nur „am Leben zu erhalten“, begeht Karriere-Selbstmord. Die alte Welt wird obsolet. Wer den Sprung in die moderne Cloud-Architektur, in Microservices und KI-gestützte Entwicklung nicht mitmacht, wird überflüssig. KI wird uns die Arbeit des „Lernens“ nicht abnehmen.

Das Dilemma der Erneuerung

Die Menge an Software, die in deutschen und internationalen Unternehmen derzeit „verrottet“, ist gigantisch. Der Aufwand, diese Systeme abzulösen, würde mit herkömmlichen Methoden Unsummen kosten. Zudem gibt es gar nicht genügend menschliche Entwickler auf dem Markt, um diesen „Tech Debt“ (technische Schulden) abzubauen.

Hier ist KI der Retter in der Not. Nicht, weil sie die Entwickler ersetzt, sondern weil sie den Output der vorhandenen Entwickler so weit steigert, dass die Bewältigung dieses Berges an Arbeit überhaupt erst realisierbar wird. KI macht den Umbau bezahlbar.


7. Die 80/20-Regel der Transformation

Wir haben viel über Code gesprochen. Doch hier liegt das grösste Missverständnis des Managements.

Programmierung macht nur ca. 20% des Gesamtaufwands in der Entwicklung aus.

Die digitale Transformation ist kein Projekt, das man einmal macht und dann „fertig“ ist. Sie ist ein Mindset der konstanten Erneuerung. Die wirkliche Herausforderung, und das ist der Bereich, wo KI nur einen sehr kleinen Beitrag leisten kann, liegt in den restlichen 80%:

  • Vision & Strategie: Wo will das Unternehmen hin?
  • Business-Modell-Entwicklung: Wie verdienen wir Geld?
  • Prozess-Engineering: Wie laufen die Abläufe effizient?
  • Requirements-Engineering: Was muss die Software genau können?
  • Solution-Design: Wie sieht die Architektur aus, die das Problem löst?

Die Analogie zur Physik

Mein Hintergrund liegt ursprünglich in der Physik und Mathematik. Ich ziehe gerne folgenden Vergleich heran: In der Physik nutzen wir die Mathematik als logisches Werkzeug, um die reale Welt zu beschreiben. Die Mathematik ist nicht die Realität, sie ist das Tool.

In der Softwareentwicklung ist es genauso:

  • Das Solution Design bildet die reale Welt und das Geschäftsproblem ab.
  • Die Programmierung ist lediglich das Werkzeug, um dieses Design umzusetzen.

Wenn das Design (das Verständnis des Problems) falsch ist, hilft auch der perfekteste, von KI generierte Code nichts. Man baut dann nur sehr schnell und effizient das Falsche.


8. Fazit: Strategien für die Zukunft

Was bedeutet das nun für dich?

  1. Keine Angst vor KI, aber Respekt vor Komplexität: Nutze KI als Beschleuniger, aber entlasse nicht die Architekten, die wissen, wohin die Reise geht.
  2. Legacy modernisieren: Warte nicht. Ich sehe viele Unternehmen, die Investitionen zur Ablösung alter Applikationen aufschieben. Das ist gefährlich. Ein Projekt, an dem ich beteiligt war, brauchte 7 Jahre, um ein Altsystem abzulösen. Je länger du wartest, desto teurer und riskanter wird es.
  3. Auf stabile, moderne Stacks setzen: Suche den Mittelweg zwischen „Bleeding Edge“ und bewährt.
  4. Hole dir Expertenwissen: Der Neubau von Applikationen ist komplex. Es braucht Menschen, die Vision, Prozessverständnis und technisches Tiefenwissen vereinen.

Eine Web-Applikation, die ich 2013 programmierte, ist heute noch online. Sie wurde in 12 Jahren nie gehackt und brauchte kaum Pflege. Aber selbst diese Applikation muss jetzt neu geschrieben werden. Das Projekt dazu läuft bereits seit fast einem Jahr. Das zeigt: Gute Software hält lange, aber nichts hält ewig.

Ich hoffe, ich konnte dir mit diesen Ausführungen mehr Verständnis dafür vermitteln, wie die digitale Welt von heute gebaut wird. Es ist ein Dschungel da draussen, aber mit dem richtigen Kompass (und den richtigen Partnern) ist er navigierbar.


Wenn du Unterstützung bei der Navigation durch die Digitale Transformation benötigen, ein Brainstorming brauchen oder Dienste als Solution Architekt oder Programm Manager suchen, besuche meine Webseite atticsolutions.ch. Dort kannst du auch direkt einen Termin buchen.

Viel Erfolg in einer sich schnell verändernden Welt.

0 Kommentare

Hinterlasse einen Kommentar

An der Diskussion beteiligen?
Hinterlasse uns deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.