Umgang mit komplexen Informationssystemen
Landläufig werden Maschinen als neutrale Werkzeuge wahrgenommen. Mit einer Schaufel kann man zwar besser graben als mit der bloßen Hand, methodisch funktioniert sie allerdings wie der verlängerte Arm, der exakt den eigenen Anweisungen folgt.
Die Vorstellung linearer Abläufe ist angenehm, einfach und überschaubar, so dass viele Menschen in ihr verharren, vielleicht gerade weil der Alltag längst von heterogenen Prozessen und komplexen Systematiken bestimmt ist, die der Einzelne nicht mehr zu durchschauen in der Lage ist.
Wer eine moderne Maschine bedient, ist längst nicht mehr Herr all ihrer Funktionen. So mag man beim Fahren eines vertrauten Fahrzeuges zwar das Gefühl der Einheit mit dem Gerät haben, aber im Grunde verfügt man nur über einen Bruchteil der Möglichkeiten und Vorgänge. Beim Fortschritt von mechanischen Apparaturen, hin zur Elektronik, haben wir eine Schwelle überwunden, deren wir uns kaum bewusst sind.
Konfiguration und Neutralität
Klassische elektronische Geräte und sogar komplexe mechanische Konstruktionen richten sich nicht allein nach dem Bedürfnis des Anwenders, sondern wurden vom Konstrukteur, nach dessen Vorgaben konfiguriert.
Mehr noch gilt das bei der nächsten Stufe der Komplexität, der sogenannten „Künstlichen Intelligenz“. Hier finden selbst die Konfigurationen automatisiert statt, so dass eine Maschine aus einem Datenpool in unüberschaubarer Geschwindigkeit Informationen sammeln und verwerten kann, die dann als integraler Bestandteil der Programmierung eine zukünftige Konfiguration mit prägen.
Als Betreiber eines solchen Systems hat man nur wenig Einfluss auf das „Lernen“ der KI selbst. Man kann die Inhalte des Datenpools begrenzen, was allerdings nur bei kleineren Projekten effektiv ist, andererseits kann man beim Ein- oder Ausgang des Systems entsprechende Filter setzen, um Reaktionen in gewünschte Bahnen zu lenken.
Zwischen Hersteller oder Betreiber einer derartigen Software und dem Anwender verschiebt sich so der Fokus immer weiter. Ein Nutzer kann zwar Anweisungen geben oder Anfragen stellen, so dass er dem Gefühl nach über die Maschine verfügt, effektiv aber gibt es kaum eine Möglichkeit, die interne Systematik in den Blick zu nehmen und es ist kaum möglich, immanent Quellen und Qualität zu prüfen.
Routinearbeiten maschinell erledigen lassen
Eine selbstlernende und umgangssprachlich kommunizierende Technologie eignet sich naturgemäß hervorragend für Routinearbeiten. Immer mehr Menschen lassen sich Geschäftsbriefe von künstlichen Textgeneratoren erstellen, man lässt sich Medien übersetzen und greift vermehrt auf Abfrageergebnisse zurück, die man früher aufwendig selbst hätte recherchieren müssen.
Die Arbeitserleichterung wird allerdings teuer erkauft, denn was man selbst nicht einübt, wird man auch nicht zur Perfektion bringen. Wenn man nur noch aus Formulierungen auszuwählen braucht, lernt man nicht selbst zu formulieren. Und wer alle Korrespondenz, auch gesprochenes Wort, automatisch in jede beliebige Sprache übersetzen lässt, der wird sich immer weniger bemühen eigene Fremdsprachenkenntnisse auszubauen.
Schon früher hieß es, man brauche vieles nicht mehr zu erlernen, man könne es ja „googlen“. „Wissen wo es steht“, sei eine Kernkompetenz, die einem erspare, sich „unnötiges Wissen“ selbst anzueignen. „Digitale Kompetenz“, sei die Schlüsselqualifikation, die im modernen Internetzeitalter alle Türen öffne.
Überall findet man derzeit Coaches, die in Seminaren versprechen, noch effektiver mit gängigen KI-Werkzeugen zur Text- und Bildgenerierung umzugehen, die perfekte Anweisungen parat haben, um Arbeiten noch effizienter auszulagern, denn für Routinearbeiten, die auch eine Maschine erledigen kann, sind wir uns als Menschen ja zu schade.
Was wir dabei verlernen, ist die eigene Kreativität. Wir schaffen keine Basis für unsere persönliche Entfaltung, denn diese findet nur durch das stete Einüben von Routinearbeiten statt. Wer ständig Programme für die Übersetzung einer Sprache nutzt, sollte sich eingestehen, dass er selbst diese wohl nicht perfektionieren wird. Wer sich Texte grundsätzlich vorschreiben lässt, wird sich in der eigenen Ausdrucksfähigkeit nicht weiterentwickeln und wer lieber aus Vorschlägen auswählt, statt eigene Ideen zu entwickeln, lässt die persönliche Anlage zur Kreativität verkümmern.
Abhängigkeit und inhaltliche Verarmung
Wir müssen unsere Fähigkeiten trainieren und uns stets selbst neu erfinden, um uns nicht an äußere Einflüsse zu binden. Das gilt nicht nur in Bezug auf moderne Informationssysteme, sondern ganz allgemein. Wer seinem eigenen Urteil nicht vertraut, ist anfällig für autoritäre Vorgaben oder begnügt sich mit Mehrheitsbeschlüssen. Die Frage nach der Tragfähigkeit eines Konzeptes, gar nach Wahrheit, ist dann keine Option.
Das ist der Weg in zahlreiche Abhängigkeiten. Die Meinungen anderer erhalten einen größeren Stellenwert als eigene Erfahrungen, man traut den eigenen Schlussfolgerungen nur, wenn man sich in Gemeinschaft Gleichgesinnter weiss. Ändert sich die Mode oder wechselt die Stimmung, ist man schnell bereit, sich anzuschließen, was vor allem für jene Kräfte optimal ist, die mit ihren Technologien Gesellschaften lenken und beeinflussen wollen. Wer an der Quelle moderner KI-Systeme sitzt hat Macht über die Politik bis hin in die privatesten Räume.
Ob Provider global vernetzter Informationsplattformen bei ihren Entscheidungen das Wohl der Nutzer im Blick haben, kann man aus der Position des Konsumenten kaum erkennen, zumal sich durch intensiven Gebrauch der Angebote eine Verarmung des Datenpools ergibt, auf den die künstlichen Intelligenzen zugreifen.
Wenn die Kreativität der Menschen nachlässt, werden immer weniger Ideen eingestellt. Hinzu kommt die Gefahr, dass Erzeugnisse der KI die eigene Datenbasis anreichern, also künstlich erzeugte Texte erneut als Recherchegrundlage genommen werden, was die Qualität der Datengrundlage stark beeinträchtigt. Als Gegenmaßnahme braucht es regelmäßig neuen qualitativ hochwertigen Content, der ausserhalb der KI generiert wurde.
Der ursprüngliche Gedanke einer Schwarmintelligenz, die sich aus unendlich vielen menschlichen Anwendern speist und auf die eine künstliche Intelligenz zu Recherchezwecken zugreifen kann, ist aufgrund der Problematik eher unwahrscheinlich. Zur Kompensation könnten darum Betreiber großer KI-Portale eigenen Content, der nach ihren Vorstellungen verfasst wird, zum Datenpool hinzufügen. Die Gefahr der Abhängigkeit von unseren Informationssystemen und deren Betreibern sollte also ständig diskutiert und überwacht werden.