Das Problem ist nicht Technologie, sondern deren Adoption
Stellen Sie sich vor, es ist eine laue Sommernacht, und Sie sitzen unter dem alten Eichenbaum im Dorfzentrum. Neben Ihnen der Dorfälteste, weise lächelnd und mit funkelnden Augen erzählt er Geschichten, gibt Ratschläge und hat Antworten auf Fragen, die Sie noch gar nicht gestellt haben. Eine gemütliche Vorstellung, nicht wahr? Doch in unserer modernen Welt hat der Dorfälteste ein Update erhalten: Er ist digital geworden und nennt sich nun Künstliche Intelligenz (KI). „Heureka!“, rufen wir. „Endlich eine Technologie, die uns die mühsamen Denkarbeiten abnimmt, die blitzschnell antwortet und das Leben erleichtert.“ Wir nutzen sie eifrig – in Form von Sprachmodellen etwa – und werfen ihr Fragen und Aufgaben zu wie Brotkrumen den Enten im Park. Sprachmodelle sind natürlich nur eine von vielen Anwendungen im großen Themenbereich der KI, doch sie zeigen, wie weit wir gekommen sind. Bevor wir uns allerdings von der Begeisterung forttragen lassen, sollten wir innehalten und fragen: Was ist das eigentlich, was wir da täglich mit Informationen füttern? Was geschieht mit diesen Informationen? Und worauf stützen wir letztlich die Entscheidungen, die daraus hervorgehen?
Der Begriff „Künstliche Intelligenz“ beschreibt ein breites Feld, unter dem sich verschiedenste Modelle, Ansätze und Lösungen verbergen. Sie alle haben ein Ziel: mit maschineller Rechenleistung Aufgaben zu erledigen, die einst nur menschlicher Verstand lösen konnte. „Ja, ja, das wissen wir doch längst“, mögen Sie nun denken. Aber haben Sie sich schon einmal gefragt, was passiert, wenn wir tatsächlich dort ankommen, wohin uns die Technik gerade führt? Welche Folgen hätte das für Sie und ihr Unternehmen? Aktuell befinden wir uns in der Phase der sogenannten „schwachen KI“. Diese kann einfache Aufgaben in spezialisierter Form sehr gut übernehmen, etwa Sprachbefehle verstehen, den Wecker stellen oder das Wetter ansagen. Doch die Einsatzfelder werden immer größer. Die Ankündigungen der Tech-Dienstleister überschlagen sich förmlich mit neuen Updates, dank derer wir noch komplexere Fragen mit der Maschine diskutieren können und diese dabei immer weniger Fehler machen. Beeindruckend, gewiss – aber aus der Sicht unseres Dorfältesten sind das noch keine tiefgründigen Gespräche. Eine „starke KI“ hingegen könnte da schon mehr. Sie könnte basierend auf der Analyse unseres Ernährungsverhaltens mittels Sensoren in der Smartwatch eigenständig den Wocheneinkauf organisieren. Sie würde bemerken, dass wir gegen Ende der Woche – angedeutet durch sichtlich erhöhten Blutdruck und zunehmend vulgärem Sprachstil – aufgrund von Stress der vorhergegangenen Tage auf Planungsversäumnisse bei der Nahrungsbeschaffung zusteuern, welche am kommenden Wochenende zu Versorgungsengpässen führen würden. Im Idealfall würde diese starke KI sich sogar kurz vor Ladenschluss bei uns erkundigen, ob sie etwas auf der Einkaufsliste vergessen hätte, bevor sie den Zahlungsvorgang einleitet. „Das wäre zweifellos beeindruckender als die KI, die wir heute kennen, Herr Dorfältester! Schon bald könnten wir die drängenden Fragen von Unternehmen und Gesellschaft in Rekordzeit lösen, was bislang kein Mensch geschafft hat!“ Doch der Dorfälteste würde wohl eher entgegnen: „Aber wäre das wirklich wünschenswert? Was bleibt uns, wenn all die kleinen geistigen Mühen von Maschinen erledigt werden? Könnten wir uns auf eine Technologie im Alltag verlassen, die von uns Menschen das Denken – und auch unsere Eigenart, Fehler zu machen – gelernt hat? Und würden wir uns dann wirklich den großen, richtungsweisenden Fragen widmen?“
Lassen Sie uns ein kleines Gedankenexperiment wagen: Nehmen wir an, die starke KI ist bereits Teil unseres Alltags. Wie würde sich unsere Arbeitswelt verändern? Würden wir ihr Vertrauen schenken, so wie man früher auf den Rat des Dorfältesten hörte? Betrachten wir einmal die heutigen Sprachmodelle als Beispiel. Beeindruckend sind sie allemal – sie kennen jede Redewendung, schreiben Romane schneller, als wir „Large Language Model“ sagen können. Doch wenn Sie schon einmal einen KI-generierten Roman gelesen haben, fällt schnell auf, dass hier beim Geschichten erzählen der feine Unterschied zwischen Maschine und unserem weisen Alten unter der Eiche zutage tritt. Der Dorfälteste kannte nicht nur die längst vergangenen Fakten und Geschichten, er verstand auch die Menschen. Der Dorfälteste spürte die Zwischentöne, las in unausgesprochenen Zweifeln. Wenn jemand sagte: „Oh, großartig, noch eine Regenflut vor dem Winter – genau das habe ich mir gewünscht!“, wusste er, dass das nicht ernst gemeint war. Anstatt zur Mutter des Bauernjungen zu sagen: „Er ist faul und nutzlos.“ sagte er: „Zeige Ihm den Sinn in seiner Arbeit, damit er sich wohlfühlt.“ Er fand Worte, die weit über das Gesagte hinausreichten, die Kritik in Lob verpacken oder Zweifel besänftigen konnten. Worte sind schließlich mehr als Daten für Maschinen; sie tragen im Moment des Aussprechens unzählige zusätzliche Informationen, wie Emotionen, kulturelle Anspielungen und persönliche Erfahrungen in sich. Selbst zwischen Menschen sorgt diese Komplexität oft für Missverständnisse und Kommunikationsprobleme und hier liegt der entscheidende Punkt: Während wir immer mehr auf die Hilfe durch Technologie setzen, laufen wir Gefahr, den menschlichen Faktor aus den Augen zu verlieren. Wir können uns zunehmend auf die KI verlassen, ohne ihre Ergebnisse zu hinterfragen. Wir sollten uns jedoch bewusst sein, dass wir damit entweder ein Stück unserer Eigenverantwortung und Entscheidungsfreiheit abgeben – zum Beispiel an diejenigen, die die KI entwickeln – oder dass sich unsere Art der Verantwortung verändert, weil wir es sind, die diese Technologie letztendlich mit der Ergebnisfindung beauftragen, anstatt selbst die Entscheidungen zu treffen. Es muss uns auch bewusst sein, dass die digital erzeugten Ergebnisse dieser Technologie durch reale Umstände in dieser Welt geformt wurden und die Informationen als solche teilweise ungefiltert und nicht vorab kuratiert in maschinenlesbarer Form als Daten in den Entscheidungsprozess der KI eingespeist werden. So betrachtet wirkt es sogar reichlich töricht, wesentliche Entscheidungen einer Instanz zu überlassen, die den Kontext der entscheidenden Informationen gar nicht erfassen kann. Oder anders gefragt, würden sie einem jungen unerfahrenen Erwachsenen weitreichende Entscheidungen in Ihrem Unternehmen, wie z.B. die Personalplanung überlassen, wenn er/sie vorher ungefiltert alle positiven als auch negativen Seiten des Internets als „neutralen“ Input bekommen hätte? Was würde wohl überwiegen, wenn diese Person bei der vorgegebenen Zielerreichung zwischen materieller Effizienz und gesellschaftlicher Fairness entscheiden müsste, selbst wenn sie sich der Auswirkungen für oder gegen diese Prinzipien bewusst wäre? Wir stehen mit diesen Fragestellungen nur am Anfang der Debatte über die neuen Herausforderungen durch KI und kürzen es hier zeit- und umfangsbedingt etwas ab: Es gibt bei KI nicht nur technische, sondern auch soziale Herausforderungen bei der Handhabung dieser Systeme. Der Dorfälteste hätte uns vor diesen Herausforderungen gewarnt. Er hätte uns vielleicht dran erinnert, „keiner Statistik zu trauen, die wir nicht selbst gefälscht haben“. Doch wie steht es mit „Glaube keiner KI, deren Daten du nicht überprüft hast“? Er hätte nachgehakt, „Wer sichert den verantwortungsvollen Umgang mit Technologie in Ihrem Unternehmen?“ Technologie kann viele praktische Probleme lösen, doch bleibt sie letztlich ein Werkzeug. Ein Hammer mag hilfreich sein, aber wenn wir ihn für alles verwenden, sieht bald jedes Problem aus wie ein Nagel.
Doch nützt es ja auch nichts nur pessimistisch und übervorsichtig den Herausforderungen neuer Technologien entgegenzutreten! Deswegen hier ein Tipp: Es stellt sich bei jeder Technologie nicht nur die Frage, wie diese technisch angewendet wird – also konkreter, welche Fachkompetenzen für deren Anwendung vorausgesetzt werden. Es stellen sich mindestens genauso zwei weitere Fragen: Erstens, wie man damit unter welcher Zielstellung innerhalb einer Organisation etabliert (Management der Technologieadoption) und zweitens, wie man die Technologie zu genau diesen Zielen im Unternehmen anwendet (Technologie-Implementierung). Der Erfolg der KI-Adoption ist also von einer zielgerichteten Strategie abhängig und sollte eine Art Gebrauchsanweisung für deren verantwortungsvollen Einsatz besitzen. Neben großen europäischen Zielen zur KI-Regulierung sollte das vor allem auch jedes Unternehmen individuell angehen. Denn jedes Unternehmen verfolgt unterschiedliche Ziele, steht vor individuellen Herausforderungen und wird KI in einem anderen Kontext einsetzen. Die gute Nachricht ist, dass alle Unternehmen bereits eine solche Richtungsweisung in sich tragen. Tagtäglich werden Entscheidungen getroffen, die den wirtschaftlichen Erfolg nach bewährten Grundsätzen sichern sollen. Dazu gehören Visionen und Strategien, die langfristige Ziele verfolgen, und Governance, die die Spielregeln für den operativen Alltag festlegt. Diese Ansätze bieten ideale Grundlagen, um auch bei KI die Kontrolle zu behalten, selbst wenn sie in hochkomplexen und potenziell kritischen Situationen eingesetzt wird. Ob es um die Prüfung der Kreditwürdigkeit, die Bewertung von BewerberInnen, die Planung von Maschineninteraktionen oder die Qualitätskontrolle von Lebensmitteln geht – hinter all diesen Entscheidungen stehen nicht selten Existenzen von Unternehmen oder Menschen.
Vielleicht würden die Dorfältesten von einst den Kopf schütteln über unsere blinde Begeisterung über Technologien, wie KI. Sie würden uns daran erinnern, dass nur weil sie sich wie Menschen verhält, sie noch lange keine Eigenverantwortung übernehmen kann. Technologien aus dem Topf der KI mögen wie ein digitaler sehr belesener Dorfältester wirken, aber ohne unseren kritischen Geist, ohne Einsatzstrategie und Führung bleibt sie ein Werkzeug ohne Richtung. Es liegt in unserer Pflicht gegenüber unserer Gesellschaft und unserer Umwelt verantwortungsvoll mit unseren Hilfsmitteln umzugehen. Für eine gelungene digitale Transformation müssen wir mehr tun, als nur alle Aufgaben an die Technik zu delegieren und auf Wohlstand zu hoffen. Wir müssen sie bewusst in unseren Unternehmen steuern, behutsam in unseren Lebenskontext einbetten, sie hinterfragen und sicherstellen, dass sie uns nicht nur effizienter macht, sondern ihre Ergebnisse auch wertvoll sind. Oder wie Steve Jobs sagte: „Technologie ist nichts. Was wichtig ist, ist, dass du Vertrauen in die Menschen hast, dass sie im Grunde gut und klug sind – und wenn du ihnen Werkzeuge gibst, werden sie wunderbare Dinge damit anstellen.“
Bitte zitieren als: BITCO³ – Tim Klos (2024). Der digitale Dorfälteste: Das Problem ist nicht Technologie, sondern deren Adoption – 27.10.2024. Online verfügbar unter https://bitco3.com/2024/10/27/der-digitale-dorfaelteste-das-problem-ist-nicht-technologie-sondern-deren-adoption/
Kontaktieren Sie uns bei Fragen: