Der disruptierte Informatiker

Im letzten Sommer bin ich 50 geworden. Ein halbes Jahrhundert! Im Mittelalter wäre ich damit schon ein Greis und würde sicherlich mir Ehrfurcht als Weiser behandelt werden. Tja, die Zeiten sind vorbei. Tatsächlich wird man mit 50 zwar noch nicht zwingend altersmilde, aber so einiges erlebt hat man schon. Ich kann z.B. auf mehr als 35 Jahre Berufserfahrung in der IT zurück schauen. Meine Generation war im Prinzip die erste, die in ihrer Jugend schon früh mit „Computern“ umgegangen ist und natürlich war man über lange Zeit der Einzige, der die Uhr am Videorekorder einstellen konnte.

Ich hatte Glück mit meinem Job. Ich war immer an den Momenten aktiv dabei, wenn es zu größeren Umbrüchen – heute heißt das disruptive Technologien – kam. Das bedeutet, immer dann, wenn sich Altbewährtes plötzlich in Nutzloses verwandelte, weil es etwas (manchmal vermeintlich) Besseres gab. Es ist aufregend, bei solchen Entwicklungen dabei zu sein, und in jungen Jahren war ich davon so sehr verzaubert, dass mir die Folgen von solchen Paradigmenwechseln nicht wirklich klar waren. Erst über die Jahre, und nachdem ich viele davon gesehen und deren Folgen begleitet hatte, wurde mir klar, was „disruptiv“ wirklich bedeutet.

Die IT ist im Moment der viel gepriesene Heilsbringer unseres Wirtschaftssystems. Wir bauen so sehr darauf, dass wir z.B. die Bildung unserer Kinder schon extrem früh für den Umgang mit IT optimieren. Kein innovativer Kindergarten ohne „Computerführerschein“ und keine gute Grundschule ohne Smartboard. In den höheren Schulen gerne auch mal ein Tablet für alle und natürlich wollen wir, dass das Kind später Informatik studiert. Es soll es doch mal besser haben. Da ich auch 4 Kinder in verschiedenen Altersstufen habe, höre ich solche Debatten häufig von anderen Eltern. Seltsamerweise scheinen die meisten relativ wenig von der Entwicklung der IT-Märkte und Technologien zu verstehen, dafür, dass sie ihr Kind für dessen Einsatz genau dort optimieren wollen. Ein Kind, das heute in den Kindergarten kommt, hat ca. 20 Jahre, bevor es am Ende – vielleicht eines Informatikstudiums – den Eintritt ins IT-Berufsleben wagen kann. 20 Jahre! Haben wir eine ungefähre Vorstellung, was sich in der IT in 20 Jahren alles ändern kann, und vor allem – welche Auswirkungen diese haben?

Prognosen sind schwierig, besonders wenn sie sich auf die Zukunft beziehen, sagt eine alte Redewendung. Letztlich kann niemand – selbst die besten Experten – nicht vorhersehen, was in der IT auf uns zu kommt. Ich erinnere dabei an das Zitat von Thomas Watson (CEO von IBM): “Ich denke, dass es weltweit einen Markt für vielleicht fünf Computer gibt”. Das war 1943. 20 Jahre später, also 1963 waren Computer schon der „Hot Shit“ – wenn auch noch etwas sperrig. Heute ist Watson der Namensvetter der fortschrittlichsten KI (Künstliche Intelligenz) Lösung die es zur Zeit im Markt gibt – von IBM. Die Watson KI gewinnt mittlerweile sogar bei Jeopardy und hilft Medizinern bei Diagnosen.

Die Qualität der Vorhersagen ist heute keineswegs besser. 1995 hielt Bill Gates das Internet noch für einen Hype, mit dem man niemals Geld verdienen könnte. Auch bei uns gibt es solche Propheten. So hat z.B. Matthias Horx, der gefragte Zukunftsforscher und Ratgeber der Wirtschaft, im Jahr 2001 bereits das Ende des digitalen Rausches in einem umfangreichen Artikel in der WELT verkündet. Kernthese des Artikels: „Das Internet wird kein Massenmedium“. Na Glückwunsch!

Meine ersten Erfahrungen mit disruptiven Entwicklungen starteten in der achten Klasse. Dort war nämlich ein Berufspraktikum angesagt. Ein Laune des Schicksals spülte mich, den Hauptschüler vom Land, dabei in die große Stadt (Mainz) und mitten in das Landesrechenzentrum Rheinland Pfalz. Hier fand die ganz große IT statt – im wörtlichen Sinne. Das Papier für den Drucker wurde mit dem Gabelstapler eingelegt. Der Drucker selbst war begehbar und der Computer war über eine ganze Sporthalle verteilt. Ich war jetzt also für die nächsten Wochen im „Computerbusiness“. Es war der Himmel für mich. Ich durchlief alle Abteilungen und habe viel gelernt. Dazu gehörte allerdings auch zu erkennen, dass es eine klare Hierarchie in der Welt der Computer gab. Ganz unten waren die Datentypistinnen – damals fast ausschließlich Frauen. Dort wurde „am Computer“ gearbeitet. Das war hochmodern und ein super bezahlter IT-Job. Praktisch wurden aber den ganzen Tag nur Zahlenkolonnen eingegeben und es war letztlich eine angelernte Tätigkeit. Zum Glück musste ich dort nur wenige Tage verbringen. Dann ging es weiter zum Maschinenraum. Ich durfte dem „Operator“ helfen. Magnetbänder einlegen, Lochkarten einlesen, Fehlermeldungen bearbeiten – das war der Himmel für mich. Schon nach kurzer Zeit ließen mich die Operator einfach allein und ich durfte den Laden „schmeißen“. Das lag nicht daran, dass ich so schlau gewesen wäre. Es war letztlich auch nur eine angelernte Tätigkeit. Irgendwo im Gebäude gab es dann auch noch „Programmierer“. Das war die Elite. Die dürfte man nicht besuchen oder stören, weil man ja „sowieso nicht verstehen würde, was da gemacht wird“.  Das Lustige an der Sache war, dass ich kurze Zeit später zu Hause schon mehr Rechenpower im Kinderzimmer stehen hatte, den Commodore C64, und die meisten Jobs aus dem Rechenzentrum schon wenige Jahre später nicht mehr existierten.

Quelle: Opel-Post

Es traf aber nicht nur die IT-Spezialisten. Viel schneller und härter traf es andere Berufsgruppen. Meine Ausbildung machte ich in den Fabrikhallen von Opel in Rüsselsheim als Elektroniker. Ich hatte einen „guten“ Zeitpunkt erwischt. Die Roboter hielten in die Fabrikation Einzug. Ganze Berufsgruppen, z.B. die Schweißer, wurden hinfällig. Natürlich wurden die dann arbeitslosen Schweißer nicht als Programmierer wieder eingestellt. Die Jobs waren auf ewig verloren. Die Automatisierung traf aber auch andere Berufsgruppen. Während man auf dem Land bestenfalls Schlosser lernen konnte, gab es in der Industrie den Dreher. Es war ein begehrter Metallberuf, der schon in der Ausbildung sehr gut bezahlt wurde. Und man brauchte eine Menge davon. Plötzlich erschienen die ersten CNC-Drehmaschinen auf der Bildfläche, bei denen der Computer plötzlich die Steuerung der Maschine übernahm. Erst wurde das Berufsbild noch entsprechend angepasst, aber es wurden tatsächlich immer weniger Dreher benötigt. Auch diese Jobs verschwanden, oder die Bewerber wurden mit neuen „Berufsbildern“, z.B. „Teileeinrichter“ – jemand der letztlich Teile in eine Maschine legt – aufgefangen. Selbst die „Informatiker“ jener Zeit – die Elektroniker und Ingenieure – traf es hart. Diese Menschen konnten alle Mc Gyver Konkurrenz machen und mit einer Haarnadel und Isolierband eine komplizierte Maschine bauen, aber von Programmierung hatten sie keine Ahnung. So kam es, dass ich als kleiner Lehrling mit meinen am C64 erworbenen Kenntnissen, plötzlich gefragt war. Eine ganze Generation leitender Ingenieure sah sich damals plötzlich ausgemustert. Die benötigten Fachkräfte wurden meistens aus dem Ausland geliehen und noch bevor alle weitergebildet oder umgeschult worden waren, hatte die nächste Generation Technologie auch wieder viele dieser neuen Jobs unnötig gemacht.

Solche Ereignisse gab es noch viele, z.B. als nach der Lehrerschwemme in den späten siebziger Jahren (gefühlt) alle arbeitslosen Lehrer vom Arbeitsamt in SAP Berater umgeschult wurden. Damals hochbegehrt, war 20 Jahre später war kaum einer von diesen hochbezahlten Jobs übrig. Die Technologie hatte sich gewandelt. Ich könnte ein Buch mit solchen Geschichten füllen.

Spricht das nicht alles dafür, dass wir den überlauten Forderungen nach Informatikern nicht nachkommen und dringend möglichst viele Kinder auf solch eine Laufbahn vorbereiten sollten? Eben nicht! Die „Industrie“ ist nicht unbedingt für deren langfristige Planungen bekannt. Eher dafür, dass ein Geschäftsmodell bis zum Erbrechen gelebt wird, solange nichts auftaucht, was mehr Umsatz verspricht. Das Ganze konnte man z.B. sehr schön am Beispiel Elektroautos verfolgen. Außer Marketing gab es bisher von den großen Automobilherstellern im Wesentlichen nix. Deswegen haben die Firmen, die unbestritten zur Zeit einen extrem hohen Bedarf an qualifizierten (und spezialisierten) IT Fachkräften haben, im Ernstfall auch kein Problem, unseren Kindern in ein paar Jahren, wenn durch eine weitere disruptive Technologie diverse Sparten der IT nicht mehr benötigt werden, nach erfolgreichem Studium usw. zu sagen: “Sorry. Brauchen wir nicht mehr, aber Danke für den Versuch.” Dafür haben wir dann die Kinder ein halbes Leben lang ausgebildet.

Glaubt ihr nicht? IT Leute werden immer gebraucht? Werfen wir doch mal einen Blick in die Branche. Bei den Stellenangeboten sieht man 2 Gruppen (etwas vereinfacht). Die einen sollen den Laden am Laufen halten. Netzwerktechniker, Systemadmins, teilweise auch noch Webentwickler, usw. Das ist sozusagen das IT-Proletariat. Man verdient noch gut, aber es gibt immer noch einen hungrigen Studenten der das im Zweifelsfall billiger macht. Nur wenige Prozent dieser Jobklasse enthält wirklich unternehmenskritische Positionen, die personengebunden sind. Die ersten dieser Jobs sind bereits vor Jahren der Technik zum Opfer gefallen. Intelligente Diagnosetools, Programmgeneratoren, genormte Schnittstellen und eine große Anzahl von bereits bestehenden Anwendungen haben schon so manchen Programmierer für „Hausmannskost-IT“ überflüssig gemacht. Ganz anders sieht es bei den Shootingstars aus: den Spezialisten für Machine Learning und künstliche Intelligenz. Das sind die Jungs, die Siri, Facebook, Amazon und Google das Denken beibringen. Es ist schon fast Satire, dass gerade der langweiligste Zweig der Mathematik, die Statistik mit ihren teilweise jahrzehntealten Verfahren, mittlerweile das Tempo in der IT angibt. Diese vergleichsweise kleine Elite ist es, die tatsächlich im Moment IT Innovation macht. Lernen kann das im Prinzip jeder, aber nur die wenigsten werden tatsächlich zwischen Algorithmen und Statistiken glücklich, bzw. finden dort ein erfülltes Berufsleben. Den restlichen Informatikern wird es über kurz oder lang so gehen wie all den anderen IT-Profis, die auf einer Technologiewelle surfen. Irgendwann erreicht sie den Strand und dann kommt von hinten die nächste die einen ersäuft. Man muss eigentlich kein Hellseher sein, um zu merken, dass die Informatiker von heute die Arbeitslosen von 2040 sind. Immerhin sind sie dann wahrscheinlich länger im Geschäft als viele aus anderen Branchen.

Buch “The Human Face of BIG DATA”

Und was ist mit den ganz schlauen Siri & Co. Programmierern? Genau genommen arbeiten die gerade daran, ihre eigenen Jobs zu ersetzen. Zum Beispiel sind die ehemals höchstbezahlten BIG DATA Spezis (anfangs erforderten Auswertungen dieser Datenbestände ein großes Maß an Know-How und Handarbeit) vermehrt mit entsprechender Anwendersoftware konfrontiert, die auch Nicht-Gurus entsprechende Auswertungen, z.B. auf grafischer Basis, ermöglichen. Sozusagen Excel statt Programmierer. Dazu kommt, dass im Moment die Fähigkeiten einer KI zwar beeindruckend, aber doch noch erheblich limitiert ist. Es ist aber nur eine Frage der Zeit – und die Fortschritte der letzten 10 Jahre waren enorm – bis letztlich Programme Programme schreiben. Und dann? Dann wird es plötzlich gar keinen Bedarf mehr für die ehemals händeringend gesuchten IT Profis geben.

Ich denke, das sollte man im Auge behalten, wenn man heute den Kindergarten nach „Computerführerschein“ etc. aussucht. Selbst für die jungen Leute, die heute ein Studium antreten, könnte es schon mehr als knapp werden. Lebenslange Lernbereitschaft nützt da gar nichts, wenn man gegen einen Computer antritt.

https://commons.wikimedia.org/w/index.php?curid=68575690

Und jetzt? Gar nix mehr lernen? Netflix & Chill bis zum Ende? Ganz im Gegenteil. Es gibt ein gutes Interview – nur wenige Minuten – mit Jack Ma, seines Zeichens Internet-Milliardär und sicher in der Branche gut vernetzt. Schon ein Blick auf seinen Lebenslauf ist überaus interessant. Details dazu finden sich hier. In Kurzform, er war keineswegs der typische IT-Genius. Er verfügt noch nicht einmal über eine spezifische IT Ausbildung. Heute ist er der Schöpfer eines der größten IT Imperien der Welt. Was rät also Jack Ma, was wir unseren Kindern beibringen sollen? Alles das, was Maschinen nicht gut können bzw. noch sehr lange nicht gut können werden. Er plädiert für eine Ausbildung in Musik, bildende Künste, Fairness, Nächstenliebe und weiteren Dingen, die man sonst eher auf einer Waldorfschule verorten würde. Die Logik dahinter ist ganz einfach. Wir werden die Maschinen auf ihrem Terrain nicht schlagen. Wir müssen uns darauf besinnen, was typisch menschlich ist. Auch wenn diese Bastion vielleicht irgendwann einmal fällt, so wird es doch genau hier noch am längsten Aufgaben für Menschen geben.

Jobs für Alle und die Rückkehr zur Vollbeschäftigung ist ein Märchen für dumme Kinder. Ein Großteil der Jobs wird für immer in die Welt der Maschinen verschwinden. Das gilt für die qualifizierten Jobs genauso wie für den Mindestlohn-Job im Callcenter, der bereits heute von einem Chat-Bot übernommen werden kann. Wir müssen aufhören, die Ausbildung unserer Kinder an die Forderungen von Industrie und Aktionären zu binden. Denen ist die Zukunft unserer Kinder egal, die wollen nur in den nächsten Jahren gute Quartalsabschlüsse und sobald eine „produktivere“ Lösungen vorhanden sind, werden die Arbeitskräfte entsorgt.

Entsprechende Lösungen wie die Besteuerung von Maschinenarbeit oder bedingungslose Grundeinkommen sind im Moment auf einer politischen Agenda mit Umsetzungspotential überhaupt nicht sichtbar. Wer will auch schon die Wirtschaft beeinträchtigen!? Da schicken wir unsere Kinder lieber in den Computerkurs. Irgendwie auch eine Art Kanonenfutter.

Danke fürs Lesen!

Peace – euer Christian

P.S: Ich habe über das Thema übrigens schon einmal vor einigen Jahren geschrieben. Der Text findet sich hier.

 

 

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.