Von der Fragwürdigkeit und Irreführung technologischer Betrachtungen menschlichen Handelns – und von der Wichtigkeit des Fragens und Erkennens
Im Gegensatz zu Maschinen, Robotern oder Algorithmen lassen sich Menschen gewöhnlich nur ungern Vorschriften machen. Auch nicht als Konsumenten und Kunden. Sonst wäre das Leben auch völlig öde und langweilig. Beraubt und entleert seines lebendigen, schöpferischen, motivierten, spielerischen, entscheidenden, freien, verantwortlichen und letztlich überhaupt erst menschlichen Charakters.
Angemessen und sinnvoll ist der Mensch nur als ein handelndes Wesen zu begreifen. In aktionaler Beziehung zur belebten wie unbelebten Um- und Mitwelt und in konkreten raumzeitlichen Bezug. Menschen handeln aus bestimmten Gründen, mit bestimmten Zielen, mit bestimmten Mitteln, in Bezug auf etwas.
Aus psychologischer Sicht ist menschliches Handeln dabei nicht zwangsläufig immer auch „bewusst“, „rational“ oder in jeder Hinsicht „funktional“. Menschliches Handeln wird zudem von Gefühlen begleitet, „emotionsloses“ Handeln im engeren Sinne gibt es nicht. Auch das Sich-Verlieben, oder intuitive und instinktive Aktionen, sind als Handlungen zu verstehen und unterliegen keiner Naturgesetzlichkeit. Selbst unter Hypnose bleibt der Mensch ein Handelnder: Die Hypnose braucht als notwendige (!) Voraussetzung die Bereitschaft des Menschen, sich hypnotisieren zu lassen. Sie ist kein Automatismus, sondern eine natürliche Fähigkeit des Menschen und ein freiwilliger Vorgang, bei dem der Wille nicht gegen innere Widerstände beeinflusst werden kann.
Was menschliches Handeln auszeichnet…
„Handeln“ stellt eine eigenständige Kategorie von „Geschehen“ und „Werden“ überhaupt dar. Wenn in der Welt etwas geschieht, ist dies für sich genommen noch keine Handlung. Man denke beispielsweise an das Wetter, das zur Erde fallen einer Sternschnuppe oder an den Urknall. Zum „Geschehen“ zählen beispielsweise physikalische, physiologische, chemische, elektrische, atomare etc. Ereignisse und Prozesse. Diesen fehlen für das Handeln zentrale Bestimmungsmerkmale, insbesondere Beweggründe und Zielgerichtetheit. Nur dadurch wird Geschehen zur Handlung. Der Mensch selbst kann hingegen in Geschehen handelnd eingreifen, dieses in Teilen auch beeinflussen und verändern (etwa das Klima, oder physiologische Prozesse durch Medikamenteneinnahme).
In ausführlicher, systematischer und frageorientierter Betrachtungsweise lauten die universalen Bestimmungsstücke des Handelns (die auch mit den bekannten „W-Fragen“ verwandt sind):
Wer (welcher jemand) tut etwas Bestimmtes (was), in einer bestimmten Weise (wie), zu einer bestimmten Zeit (wann), aus welchem Grund (warum), mit welchem Ziel (wozu/worauf zu), mit Hilfe welcher operativer und materieller Mittel (womit), mit Bezug auf welchen Gegenstand (was als Bezugsgröße) mit welchem Erfolg (was als Wirksamkeitsgröße), mit welchen Folgen (was als Folgewirkung) und mit Bezug auf welche anderen Menschen bzw. Mitwesen (wer als Bezugsobjekt).
Zum grundlegenden Verständnis menschlichen Handelns unverzichtbare Bestimmungsfaktoren sind dabei das „warum“ und das „wozu“ (Grund/Ursache und Ziel/Gerichtetheit) des Handelns. Ohne Fragen danach ist menschliches Handeln als solches gar nicht begreifbar oder beeinflussbar, Marktforschung, Marketing, Kommunikation etc. gar nicht sinnvoll möglich und gestaltbar. Innovation, Kreativität, Wandel und Entwicklungen wären ebenfalls nicht denkbar. Alles – was man selbst und andere handelnd tun – bliebe nur zufälliges, leeres oder letztlich auch überflüssiges Geschehen.
Als Konsument entscheidet der Mensch – bildlich gesprochen – beispielsweise, was morgens aufs Brot, mittags auf den Tisch und abends auf den Teller kommt – oder nicht. Kein Automatismus, kein Algorithmus und keine zwingende Handlungsvorschrift bestimmt dies. Bevor Kunden – aus Sicht anderer Menschen – ein erhofftes oder gewünschtes Verhalten zeigen (etwa eine bestimmte Kaufhandlung), müssen diese erst einmal angesprochen, überzeugt, begeistert, verführt und gewonnen werden.
Kurz: Man muss selbst handelnd (und dabei insbesondere verstehend und kommunizierend) mit Kunden in Beziehung treten. Einfach nur vorschreiben lässt sich ein bestimmtes Handeln unter normalen Umständen nicht.
Maschinen und Algorithmen handeln nicht
Maschinen, Roboter oder Algorithmen „handeln“ hingegen nicht. Sie können etwas bestimmtes ausführen, bewegen, errechnen, abbilden, suchen, verknüpfen etc. – all dies aber nicht im Sinne einer Handlung. Der Mensch als Handelnder kann ihnen zwar befehlen, vorschreiben oder erlauben, etwas bestimmtes zu „tun“. Verknüpfte Ziele, Absichten etc. stammen dabei jedoch ausschließlich von handelnden Menschen.
Der Mensch denkt, nicht die KI. Der Mensch handelt, nicht die Maschinen. Der Mensch erkennt, nicht Algorithmen.
All dies mag selbstverständlich klingen – ist es bei weitem aber nicht!
Denn es gab und gibt immer wieder Versuche, das menschliche Handeln auf das Modell von Maschinen und Automaten zu reduzieren. Menschliches Handeln nach deren Bild und Funktionsweise erklären, steuern, vorhersagen und manipulieren zu wollen. Sichtbar beispielsweise in den Grundideen des Behaviorismus und den damit verbundenen Verhaltenstechnologien, in Konditionierungsversuchen und Dressuren. Nachlesbar auch im utopistischen Zukunftsroman „Walden Two“ von Burrhus Frederic Skinner. Erkennbar in physiologischen und kybernetischen Verhaltensmodellen. Aktuell besonders wirksam in der politisch wie wirtschaftlich getriebenen Entwicklung digitaler Verhaltens-Überwachungssysteme.
Der Mensch als ein handelndes Wesen bleibt dabei regelmäßig auf der Strecke.
Dies ist an dieser Stelle ausdrücklich nicht „moralisch“ gemeint – sondern erkenntnisbezogen. Denn die Wahl des Bezugssystems beeinflusst den möglichen Erkenntnisgewinn im Hinblick auf das menschliche Handeln in entscheidender Weise. Wer den handelnden Menschen (generell oder spezifisch als Kunden, Konsumenten etc.) aus der Betrachtung ausschließt – ihn vom Grundansatz maschinenähnlich, programmierbar oder auf isolierte Verhaltensäußerungen reduziert denkt – hinterlässt und erntet mit Regelmäßigkeit eine „Black Box“ und ein ihm letztlich „unbekannt“ und „fremd“ bleibendes Wesen. Wer dies tut, der muss auf „Homunkuli“ zurückgreifen, die angeblich das menschliche Handeln steuern.
Verhaltensdaten als das neue Öl – für welche Art von Getriebe? Mit welcher Zielrichtung?
Mit allerlei technischer Raffinesse, in fast manisch anmutender Sammelwut und oft auch über die Kenntnis und Zustimmung von Menschen hinweg, werden heute mittels digitaler Erfassungsinstrumentarien bereits Unmengen verhaltensbezogene Daten erfasst, verrechnet und vermarktet – Tendenz weiter stark steigend. Sofern dies nicht planlos geschieht, erfolgt dies meist in der Hoffnung und im Glauben, damit in irgendeiner Weise auf zukünftiges Verhalten schließen zu können bzw. dieses damit in Zukunft kontrollieren, fördern, verhindern oder voraussehen zu können. Die Vision von Amazon, ein Paket (mit als erwünscht gedachtem Inhalt) bereits loszuschicken, bevor jemand dieses überhaupt bestellt hat, istnur ein zugespitzter Ausdruck davon.
Das aus forschungsmethodischer Sicht fragwürdige Motto lautet dabei: Je mehr Daten, desto besser. In der Erwartung, dass mit einem immer größeren Datenbestand automatisch auch die Erkenntnis wachsen würde. Oder beim Erreichen maximaler Datengrößen, diese Daten wie von Wunderhand aus sich selbst heraus zu „sprechen“ begännen.
Digital bzw. automatisiert erfasst werden von den digitalen Aufzeichnungsgeräten zunächst einmal nur „Geschehensdaten“. Beispielsweise ein „Klick“ oder Seitenaufruf im Internet, die Eingabe von Schriftzeichen in Suchfenstern oder die Erfassung von Bewegungsdaten.
Zu „Handlungsdaten“ – mit einem im Kontext menschlichen Handelns zu verstehendem Bezug – und zu handlungsrelevanter Information werden diese für den Datenerfasser bzw. Datennutzer prinzipiell erst, wenn dem Geschehen (Ereignis) zumindest ein Beweggrund (warum) und eine Ziel-Richtung (wozu/worauf zu) unterstellt werden.
Genau dies können aber nur Menschen als „Erkennende“ tun, keine von ihm losgelöste Maschinen oder Algorithmen. Ansonsten ließen sich all diese Daten gar nicht sinnvoll interpretieren und nutzen. Geschehensdaten beantworten keinerlei im Kontext menschlichen Handelns relevante Fragen (warum, wozu, mit welcher Absicht etc. wird gehandelt). Die Sackgasse wird auch in der heute immer öfter zu hörenden Forderung deutlich, aus (zurecht) zunächst einmal beliebig erscheinenden „Big Data“ endlich „Smart Data“ zu machen. Wobei das „smart machen“ üblicherweise etwas wie sinnvoll, verstehbar, nachvollziehbar oder handlungsrelevant machen bedeuten soll.
Algorithmen als moderne Gottheiten und als Denkersatz?
Diese Aufgabe soll nun aber nicht mehr der Mensch als Erkennender (Handelnder) übernehmen, sondern geheimnisumwobene mathematische „Algorithmen“ und „künstliche Intelligenzen“. Auch in der Verallgemeinerung der höchst fragwürdigen und irrigen Annahme, diese seien dem Menschen beim Gewinn von Erkenntnissen grundsätzlich überlegen, fehlerfreier, schneller etc.
Dabei sind Algorithmen zunächst einmal nichts anderes als mehr oder weniger komplexe – menschengeschaffene (!) – Verfahrensvorschriften für die Rechenprozesse von Computern. Algorithmische Prozesse können aus noch so vielen aufgezeichneten Ereignisdaten aber kein menschliches Handeln rekonstruieren – es sei denn man „anthropomorphisiert“ diese und verschweigt die Herkunft algorithmischer Prozesse der Suche, Verknüpfung und Entscheidungsfindung.
Rein metaphorisch mag das Anthropomorphisieren von Technik (oder auch von physikalischen oder physiologischen Vorgängen) noch erlaubt oder verzeihlich sein. Aber nur, solange man damit den eigentlichen Gegenstand der Betrachtung (hier: menschliches Handeln) nicht völlig verkennt, aus den Augen verliert oder bewusst verschleiert.
Der Anfang vom Ende menschlicher Erkenntnis?
Noch wichtiger zu beachten ist: In der mathematischen und technischen Denkwelt der Algorithmen und der KI vollzieht sich bisweilen unbemerkt eine Auflösung bisher grundlegender Prinzipien von Kausalität und Erkennen. Sichtbar wird dies insbesondere im Ausschluss von Fragen nach dem „warum?“ (Grund/Ursache) und dem „wozu/wohin?“ (Ziel/Richtung) etwas überhaupt geschieht bzw. geschehen soll. Also nach dem, was für menschliches Handeln eben gerade elementar und konstitutiv ist.
Vielmehr werden aus immer größer werdenden verhaltensbezogenen Datenbeständen auf Basis von algorithmischen Prozessen prinzipiell beliebige Korrelationen bzw. korrelative Muster, Zusammenhangs-Wahrscheinlichkeiten oder mathematisch begründete „Profile“ gebildet bzw. errechnet.
Aber Achtung vor Irreführung: Fragen nach Kausalität, Bedeutung und Zielgerichtetheit korrelativer Zusammenhänge – und insbesondere auch Fragen nach deren Einbettung in Handlungskontexte und Handlungsbezüge – sind damit natürlich in keiner Weise beantwortet. Diese kann nur der Mensch selbst erkennen und versuchen, solche Fragen bestmöglich, systematisch und möglichst widerspruchsfrei zu beantworten.
Überlegen Sie selbst einmal: Wie gewinnen Sie in Ihrem Unternehmen relevante Informationen über das Handeln Ihrer Kunden und deren Beweggründe, Ziele, Wünsche etc.? Welche Mittel und Instrumente setzen Sie dazu ein? Mit welchen Zielen? Welches grundlegende Verständnis vom Handeln Ihrer Kunden leitet Sie? In welcher Weise nutzen Sie Datenbestände, die rein verhaltensorientiert ausgerichtet sind? In welcher Weise wird in Ihrem Unternehmen über KI diskutiert?
Entzug von Transparenz und Kontrolle des Erkennens und Entscheidens
Zu welchen möglichen Fehlschlüssen rein mathematische und korrelative Anwendungsprinzipien bei unkritischer Betrachtung und unkritischem Einsatz führen können, lernt jeder Forscher bereits im methodischen Grundseminar (bzw. sollte dies lernen). Zumal solche Korrelationen (Verhaltensdatenzusammenhänge) heute zunehmend als Grundlage für bestimmte (im psychosozialen, ökonomischen und politischen Kontext wirksame und folgenreiche) Entscheidungen genutzt werden. Und weitergehend damit automatisierte Folgeprozesse in Gang gesetzt werden, die sich Menschen und deren Handeln entziehen. Beispielhaft hat dies im Hochgeschwindigkeitshandel der Börsen und andernorts in der Realität schon zu größeren Turbulenzen und Chaotiken geführt.
Um Missverständnissen vorzubeugen: Bestritten wird hier keinesfalls, dass die Anwendung von Algorithmen oder KI als operatives Mittel für den Menschen nicht (auch) erkenntnisfördernd und hilfreich sein kann. Im Gegenteil: In bestimmten diagnostischen Bereichen, bei der Entlastung von Routinetätigkeiten, bei Simulationen, in der Anwendung technischer Steuergeräte, bei der Hypothesenbildung über mögliche kausale Zusammenhänge etc., können diese sehr nützlich sein. Zudem lohnt es sich, sich auch eingehender damit zu beschäftigen, was Algorithmen oder KI können – und was nicht (auch um damit verbundenen Mystifizierungen, Fehlleitungen und unerwünschten Folgen nicht zu erliegen).
Höchst fragwürdig, irreführend und erkenntnisbezogen problematisch ist aber, rechnergestützte mathematische Prozesse außerhalb der Kontrolle und außerhalb des Handelns von Menschen als zentralem Bezugssystem zu nutzen. Elementare Grundlagen von Handeln (warum, wozu, mit welchen Mitteln, mit welchen Konsequenzen etc. erfolgt etwas auf der Handlungsebene) drohen sonst im Erkenntniskontext ausgeblendet, diskreditiert und vernachlässigt zu werden. Mit erheblichen Konsequenzen.
Stiller Abschied vom Handeln?
Wenn algorithmische Prozesse und Operationen – zumindest in Teilen – der Offenlegung, dem menschlichen Verstehen, der Nachvollziehbarkeit, der Begründung und der Kontrolle entzogen werden, entsteht in der Zuspitzung etwas, das durchaus als „Maschinenherrschaft“ oder „Algorithmenherrschaft“ bezeichnet werden kann. In der Realität ist dies natürlich weitgehend noch Fiktion. Auch angeblich „autonom“ fliegende Kriegsdrohnen, „sich selbst“ steuernde Kampfroboter oder auch automatisierte Sozialkredit-Systeme (Social Scoring) etc. stehen (einmal abgesehen von technischen Defekten) unter dem Befehl handelnder Menschen.
Maschinen und Algorithmen „handeln“ (hier im übertragenen Sinne gesprochen) immer nur unter Maßgabe, Vorschrift, Dienlichkeit und mit Erlaubnis und eingeräumtem Spielräumen handelnder Menschen – daran ändert auch die weitergehende Entwicklung von der so genannten „schwachen KI“ zu „selbstlernenden“ KI-Systemen prinzipiell nichts.
Folglich gilt: Nicht die KI selbst ist eine Gefahr, sondern der sich aus damit immer verbundenen Handlungskontexten herausziehende, verabschiedende oder davonstehlende Mensch.
Nicht umsonst haben sich bereits Organisationen wie „Algorithmwatch“ gegründet, die zum Ziel haben, Prozesse algorithmischer Entscheidungsfindung zu betrachten und einzuordnen, die menschliche Entscheidungen vorhersagen oder vorbestimmen, oder Entscheidungen automatisiert treffen, und dabei gesellschaftliche Relevanz haben.
Der Mensch als programmierter und programmierbarer Automat?
Nun ist der Mensch in Teilen durchaus (auch) ein „Gewohnheitswesen“. Er vollzieht in regelmäßigen Abständen bestimmte wiederkehrende Handlungsroutinen (bewusst wie unbewusst) und folgt gewissen psychologisch beschreibbaren und verstehbaren Handlungsmustern und „Skripten“. Ist er daher eine Maschine, ein Roboter oder Automat?
Natürlich nicht. Auch dann nicht, wenn man den Menschen unter dieser stark reduktiven Perspektive, und unter großem Erkenntnisverzicht, betrachten kann. Und auch dann nicht, wenn der Mensch sich dem Eindruck nach bisweilen „roboterhaft“ oder wie „ferngesteuert“ verhalten kann. Wird dies vorherrschend, und erfolgt nicht unter äußerem Zwang, würde man ihn als ganz offenkundig psychisch gestört bezeichnen.
In sehr vielen Bereichen und entscheidenden Parametern ist der Mensch (auch als Konsument, Kunde etc.) eben kein routinehaft und schon gar nicht automatenhaft Handelnder. Ebenso wenig wie er ausschließlich rational oder nur funktional handelt (woran die Anhänger verkürzter „Homo-Oeconomicus-Theorien“ regelmäßig verzweifeln und scheitern). In seinem Handeln ist der Mensch zudem immer nur in Annäherung und groben Zügen „vorhersehbar“ (wozu psychologisches Verstehen und insbesondere ein fundiertes Verständnis von Handeln weit mehr beitragen als reine Verhaltensbeobachtung. Zumal rein äußerlich betrachtet gleiches Verhalten völlig verschiedene Gründe, Motive und Zielrichtungen haben kann).
Menschen wie Automaten, Maschinen oder Computer zu begreifen und zu „be-handeln“, erscheint nicht nur trostlos, sondern zielt am menschlichen Wesen und an der Erkenntnis menschlichen Handelns völlig vorbei.
Überlegen Sie selbst einmal: Welche Prozesse der Kundenbeziehung wurden bei Ihnen im Zuge der Digitalisierung automatisiert? Was ließ sich nicht sinnvoll automatisieren bzw. wurde ganz bewusst nicht automatisiert? Welche Rolle spielen persönliche Kundenbeziehungen heute in Ihrem Unternehmen im Vergleich zu vor 5 oder 10 Jahren? Was hat sich positiv ausgewirkt, was eher negativ? Welche Chancen und welche Risiken und Begrenzungen der Automatisierung können Sie erkennen? Wie ist das Feedback Ihrer Kunden zum Thema Digitalisierung, Automatisierung und unmittelbarer persönlicher Kontakt? Was hat sich in den Kundenbeziehungen positiv/negativ verändert?
Aufzeichnung von Verhaltensdaten konstituiert kein Handlungsverständnis
Rein verhaltensdatenbasierte und verhaltenstechnologische Betrachtungsweisen bleiben letztlich rein vergangenheitsorientiert bzw. allenfalls gegenwartsfixiert. Sie projizieren Zukunft immer nur aus bereits Bestehendem und entwickeln aus sich heraus kein Bild, keine Kraft einer attraktiven, wünschenswerten und gestaltbaren Zukunft. Sie bringen nur wenig Licht in „Black Boxes“, bisher Unbestimmtes und sich dynamisch Wandelndes. Der Erkenntnisgewinn über menschliches Handeln (so auch spezifisches Kundenhandeln) bleibt so oft äußerst dünn – trotz gewaltiger Datenmengen.
Zugleich wird unterstellt, dass sich menschliches Handeln ohne weiteres und erschöpfend „datafizieren“ und in reiner Verhaltensdatenerfassung auflösen ließe. Dies ist aber eine Illusion und gelingt nur unter hochgradig reduktionistisch verkürztem Blick auf menschliches Handeln.
Plädoyer für den handelnden, erkennenden und beziehungsorientierten Menschen
Dem Reichtum, der Vielfältigkeit, den Beweggründen, der Gerichtetheit bzw. Motiviertheit, der Widersprüchlichkeit und Ambivalenz etc. menschlichen Handelns und Entscheidens wird man so kaum gerecht. Im Gegenteil – man verspielt die nur dem Menschen als Handelndem gegebenen Erkenntnispotenziale, Handlungsoptionen, Beziehungsmöglichkeiten und Perspektiven.
Der Rechtswissenschaftler Brett Frischmann und der Philosoph Evan Selinger werfen in ihrem Buch „Re-Engineering Humanity“ ebenfalls eine Umkehr der Fragestellung auf: Die (wesentliche) Frage ist nicht, ob Maschinen in bestimmten Bereichen menschenähnlich werden können, sondern ob der Mensch maschinenähnlich und programmierbar werden kann. Und wer hätte ein Interesse daran?
Der utopistische Roman „Walden Two“ war in dieser Hinsicht ein früher Entwurf. Kurz nach den Wirren des 2. Weltkriegs sogar einmal gemeint als (freilich fragwürdiger) Beitrag zu einer besseren Gesellschaft (ganz im Gegensatz zu Orwells „1984“, der die Gefahren eines nahenden Technologie- und Überwachungszeitalters fokussiert). Auch Franz Kafka sah in „Prozess“ und anderen seiner Romane am Horizont bereits eine menschengemachte Welt, die urteilt und entscheidet, aber nicht mehr sichtbar und greifbar ist und sich der Begründung und Verantwortung ihres Handelns entzieht.
Die heutigen Technologie-Utopien des Silicon Valley, aus Zhongguancun oder von anderswo (= der dort Handelnden), die den Menschen als „Cyborgs“ aufrüsten und bedienbar machen wollen, die der Idee eines verhaltenstechnologischen „Herding 2.0“ nachhängen, sollten uns achtsamer machen, als die Angst vor vermeintlichen Super-Intelligenzen.
Zugleich gilt es – auch aus unternehmerisch handelnder Sicht – zu erkennen, dass neben verbreiteter Technik-und-Digitalisierungs-Euphorie im Gegenlauf längst auch ein „Unbehagen in der digitalen Kultur“ eingesetzt hat. Dies hat bereits allerlei Phänomene des Widerstands, der Tarnung, Maskierung, Verschleierung, Spaltung (virtuelle Identität) etc. hervorgebracht. Normal, gesund und anstrebenswert ist dies nicht – eher Ausdruck von wachsendem Misstrauen, von Bedrängnis, Not und Selbstschutz.
Es steht für den handelnden Menschen in unserer Zeit durchaus etwas auf dem Spiel. Darauf macht in sehr differenzierter, und die Anfänge der digitalen Verhaltensüberwachung historisch nachzeichnenden Weise, auch die Wirtschaftsdenkerin Shoshana Zuboff in ihrem Buch „Das Zeitalter des Überwachungskapitalismus“ aufmerksam.
Unternehmen – und nicht nur die großen GAFAM- bzw. FAANG-Technologiekonzerne – werden gegenüber der Gesellschaft und ihren Kunden zukünftig stärker Farbe bekennen müssen. Ihr Handeln stärker offenlegen und begründen müssen. Nicht alles, was technisch möglich ist, ist gleichzeitig auch sinnvoll, angemessen, ratsam, zielführend und verantwortbar.
Auch in der Marktforschung, im Marketing, in der Kommunikation, in der Gestaltung von Kundenbeziehungen sollten wir – auch jenseits gesetzlicher Auflagen und allgemeiner Ethiken – nicht leichtfertig vom Wege abkommen, oder uns von Technologien und nicht selten damit verbundenen Machtphantasien blenden lassen.
Es sollte überzeugt daran festgehalten werden, dass der Mensch selbst – bis zum Beweis (nicht der Ideologie!) des Gegenteils – den mit Abstand besten, umfassendsten und einzigartigsten Zugang zum Menschen (und zum Kunden) ermöglicht. Qua handeln, fragen, verstehen, kommunizieren; qua Beziehung, Vertrauen, Werteorientierung, Sinnstiftung und Begeisterung. Auch sollten wir uns nicht leichtfertig und ohne Not in die Abhängigkeit, den Reduktionismus oder in das Gefängnis technizistischer Systeme und Denkmodelle begeben.
„KI“ kann an bestimmten Punkten ein unterstützendes Hilfsmittel sein, jedoch keinerlei Ersatz für das Stellen wichtiger Fragen zur Gewinnung neuer und weiterführender Erkenntnisse, oder als Ersatz für begründetes Handeln. Kurz: Wer den Menschen als handelndes Wesen (als Kunde, als Konsument etc.) verstehen und mit ihm in fruchtbare Beziehung treten will, der muss sich auch im Bezugs- und Fragesystem menschlichen Handelns bewegen (warum und wozu tut dieser etwas bzw. handelt so oder so). Wer hingegen Bildern und Modellen nachhängt, die den Menschen maschinenartig machen wollen, der geht einen anderen Weg. Der muss in der Folge mit Misstrauen und Widerständen handelnder Menschen rechnen und leben.
Der Mensch hat all dies und seine Zukunft selbst in der Hand – als ein handelndes Wesen!
Wir wünschen Ihnen und Ihren Kollegen einen allzeit handlungs- und beziehungsorientierten Blick auf Ihre Kunden und unbeschwerte und sonnige Sommertage!
Bei Fragen und Anregungen zum Thema und zu den Implikationen für das marktforscherische und marketingbezogene Handeln sprechen Sie uns gerne an! Kontakt: info@heuteundmorgen.de – Telefon: +49 221 995 005-0.
Weiterführende Informationen
https://www.telemedicus.info/article/3384-KI-und-Algorithmen.html
Burrhus Frederic Skinner (2002; engl. Original von 1948). Walden Two – Die Vision einer besseren Gesellschaftsform. FiFa-Verlag, München.
Shoshana Zuboff (2018). Das Zeitalter des Überwachungskapitalismus. Campe-Verlag, Frankfurt / New York (2019 in englischer Ausgabe erschienen).
Brett Frischmann & Evan Seliger (2018). Re-Engineering Humanity. Cambridge University Press.
Wolfang Kühn & Peter Schink (1999). Der Mensch als ein handelndes Wesen. Roderer Verlag.
Weitere Blogbeiträge zu den Themen Digitalisierung, Automatisierung und KI finden Sie auch auf den Übersichtsseiten Digitalisierungsforschung und Kundenbeziehungsmanagement.
-
Ihre Bewertung