ChatGPT und die Zukunft von Wissen und Kommunikation

ChatGPT und die Zukunft von Wissen und Kommunikation
Jan 27, 2023

ChatGPT und die Zukunft von Wissen und Kommunikation

Das US-amerikanische KI-Forschungsunternehmen OpenAI landete im November 2022 mit dem KI-Tool „ChatGPT“ im Internet einen großen viralen Hit − weit über die IT-Community hinaus. Mancherorts gefeiert als „Durchbruch der KI“ und Beginn einer „neuen Zeit“. Als „neues Google“. Medial hält der Hype weiter an (selbst dem OpenAI-Gründer Sam Altman ist dieser inzwischen unheimlich, wie er kürzlich in Interviews erklärte).

ChatGPT verspricht dabei nichts weniger als die Fähigkeit „menschenähnliche Dialoge“ führen zu können. Zugleich ist das Tool in der Lage, Texte und Inhalte zu den unterschiedlichsten Themen zu produzieren, die sich von denen menschlicher Autoren und Urheber kaum mehr zu unterscheiden scheinen (freilich beruht das System ausschließlich darauf): Allerweltstexte, Fachtexte, Werbetexte, Computersprachen, Gedichte, Lieder, Comedy-Texte, Anmachsprüche und weiteres.

Letztlich simuliert das System, es sei ein dialogfähiger und nicht zuletzt auch (all-)wissender Mensch. Aktuell noch rein auf textlicher Basis; Audio- und Video-Formate werden hier aber wohl früher oder später folgen.

ChatGPT: KI-Chatbot der neuesten Generation

ChatGPT ist dabei deutlich komplexer und leistungsstärker als herkömmliche Chatbots. Diese lassen sich bereits seit Jahren in großer Anzahl im Internet finden – haben meist jedoch nur sehr begrenzte Themen- und Anwendungsbereiche. Im Unterschied zu klassischen „deterministischen“ Chatbots, die auf einer festen Datenbank vorprogrammierter Antworten basieren (ähnlich bspw. langen „FAQ-Listen“) – und damit zu den einfachsten rein reaktiven und reproduktiven Formen der KI zählen – ist ChatGPT in der Lage, auf individuelle, nicht vorbestimmte Anfragen und spezifische Probleme der Nutzer einzugehen und entsprechende Antworten zu generieren. Und dies in einer thematischen Breite und Tiefe, die den Anwender durchaus zu verblüffen vermag.

Es reproduziert diese zugleich nicht einfach nur (wie bei einfachen deterministischen KI-Systemen), sondern kann diese – sprachmodellbasiert – eigenständig auch modifizieren, korrigieren und – auf Trainingsdatenbasis – auch völlig „neue“ Texte erstellen. ChatGPT liefert dabei jedoch keine originären neuen Ideen, Gedanken und Perspektiven. Hierzu bedarf es Menschen und deren kreativ-gestalterische Intelligenz.

Ausprobieren lohnt sich

Es lohnt sich, „ChatGPT“ selbst einmal auszuprobieren. Das System ist – nach persönlicher Registrierung – in einer kostenfreien Testversion zugänglich. Es ist mehrsprachig programmiert und funktioniert auch in deutscher Sprache bereits sehr gut. Die Kommunikation selbst erfolgt textbasiert. Aktueller Hinweis: Aufgrund der hohen Nachfrage war das System in letzter Zeit mehrfach überlastet und „currently down“.

Die Möglichkeiten der Anwendung von ChatGPT erscheinen nahezu unbegrenzt. Es scheint kaum etwas zu geben, worauf das System keine Antworten findet. Kaum ein Thema, zu dem das System keinen Text zu produzieren vermag (über deren Qualität und Originalität man im Einzelnen sicher streiten kann).

Schnell wird hier klar: Zu herkömmlichen Chatbots – die im Alltag oft mehr Frust als Lust auslösen und nach spielerischem Ausprobieren meist auch nur geringe Nutzerzahlen aufweisen – besteht ein meilenweiter Unterschied. Ebenso zu den meist nur sehr kurzen Antworten sprachgesteuerter Dialog-Systeme wie Alexa oder Siri. Und freilich auch zum auf eindimensionale Interaktionsprozesse beschränkten „googlen“.

Wie funktioniert ChatGPT?

„Gefüttert“ und „trainiert“ wurde ChatGPT seit Jahren mit einer riesigen Menge an Texten, die im Internet öffentlich zur Verfügung stehen (etwa Wikipedia, zahllose Online-Medien, Blogs, Social Media wie Twitter, Training über die Testphase, etc.). ChatGPT basiert dabei auf dem Sprachmodell GPT-3.5 (Generative Pretraining Transformer 3.5). Zum Einsatz kommen sogenannte neuronale Netzwerke, die in der Lage sind, Sprache bzw. Texte und deren Grammatik zu „verstehen“ und selbst zu produzieren, teils auch selbstständig zu korrigieren (grammatikalisch wie inhaltlich). ChatGPT beruht auf zuvor von (mehr oder weniger intelligenten) Menschen produzierten Texten. Es produziert selbst kein grundsätzlich neues Wissen.

Die Zahl der möglichen Fragen und Antworten erscheint dabei schier unbegrenzt. Umfasst dabei Allerweltsthemen ebenso wie fachspezifische Themen. Der faktenbezogene Wissensstand reicht, zeitlich betrachtet, allerdings nur bis ins Jahr 2021. Nur bis dahin wurde ChatGPT mit Daten gefüttert. Eine Antwort auf manche banalen Fragen, wie etwa: „Wer wurde 2022 Fußball-Weltmeister?“ sucht man bei ChatGPT daher bisher vergeblich.

Abgesehen von „historischen“ und verfügbarkeitsbezogenen Beschränkungen gibt ChatGPT aber ausführliche und schlüssig klingende Antworten zu fast jeder Art von Themen und Fragestellungen. Wirkt auf den Nutzer spontan nahezu allwissend. Zweifelt nicht. Gesteht bisweilen aber durchaus Grenzen und auch Fehler ein. Weist manche Fragen oder Aufforderungen als unangemessen zurück. Und ruft bei manchen Themen und Anfragen – etwa Ratschläge im medizinischen Bereich – dazu auf, sich hierfür an „zuverlässige Quellen“ zu wenden.

Wo liegen Grenzen von ChatGPT?

Damit ist man nach erster Verblüffung über die grenzenlos erscheinende Leistungsfähigkeit von ChatGPT, auch schon bei einem ersten großen Haken:

Eigene konkrete Quellen (außer der universalen Basis an Texten im Internet) werden von ChatGPT nicht angegeben (im Unterschied etwa zu Wikipedia, oder beim Googeln, wo prinzipiell auch unterschiedliche Quellen-Angaben und weiterführende Links geliefert werden). Und es wird von OpenAI auch keinerlei Verantwortung für die Korrektheit oder Angemessenheit der Antworten übernommen.

Es bleibt auch festzuhalten: Für die mögliche Verbreitung und Perpetuierung von Falschinformationen, ebenso wie beispielsweise auch von sozial, politisch, kulturell oder auch rassistisch geprägten Vorurteilen, bieten KI-Systeme wie ChatGPT keinen zuverlässigen Schutz. OpenAI sagt dazu selbst (zitiert vom IT-Newsportal Golem):

„ChatGPT schreibt manchmal plausibel klingende, aber falsche oder unsinnige Antworten. Die Behebung dieses Problems ist eine Herausforderung.“

Aufgrund der Tatsache, dass solche KI-Systeme in ihrem massenhaften Training eben teils auch aus fehlerhaften, vorurteilsbelasteten oder interessengeleiteten Daten lernen – zugleich die Quellen ihrer Ergebnisse nicht anzugeben vermögen und damit zumindest für Laien in der Anwendung unüberprüfbar machen – wird sich daran auch in Zukunft auf rein technischem Wege wohl kaum etwas verändern.

Bei aller verständlichen und berechtigten – mitunter freilich auch eher naiv und „quasireligiös“ anmutenden – Begeisterung für solche „KI-Zukunftstechnologien“, sind daher auch deren Funktionsprinzipien sowie deren verbundene Grenzen und Anfälligkeiten nicht zu vergessen. Geheime oder offene Algorithmen sichern – per se – keinerlei Wahrheitsgehalt oder Angemessenheit der Ergebnisse. Und garantieren auch keinen konkreten Anwendernutzen.

Auch trotz verbesserter Technik, die immer mehr Endnutzer überzeugt, bleiben die inhärenten Probleme und Fehler der KI-Systeme bestehen. Ähnlich verhält es sich mit Textdaten, die nicht nur sprachliche Fehler enthalten können, sondern auch faktische. Ein Ausfiltern dieser Fehler ist bei der Menge der verwendeten Daten derzeit weder vorgesehen noch praktisch möglich.

Dass sprachmodellbasierte KI-Modelle und deren vermeintliche Fähigkeiten – gerade auch in Zeiten, in denen diese medial besonders gehyped werden – mit Vorsicht zu genießen sind, zeigte sich in den vergangenen Jahren bereits mehrfach: bei Microsofts „Chatbot Tay“, bei dem auf dem Sprachmodell Galactica beruhenden „Blenderbot 3“ (welch verräterischer Name?) von Meta und in weiteren Fällen. Aufgrund von Entgleisungen, Falschinformationen und Fehleranfälligkeiten wurden diese  KI-Systeme erstmal wieder „offline“ gestellt. ChatGPT blieb in der öffentlichen Testphase bisher davon verschont.

Was das System auch (noch) nicht kann ist: Motive, Ziele, Absichten und emotionale Verfassungen des menschlichen Gegenübers zu erkennen und diese in den Dialoge einzubeziehen. Darin liegt im Vergleich zur zwischenmenschlichen Kommunikation eine ganz wesentliche Beschränkung.

Äußert man „Emotionales“ textsprachlich – beispielsweise indem man, unabhängig davon ob dem wirklich so ist oder nicht, schreibt: „Mir geht es schlecht“ – vermag das System aber durchaus angemessen darauf reagieren. Zudem kann ChatGPT sich vorausgehende Dialoge merken und daran anknüpfen. Es bleibt spannend, hier mögliche weitere Entwicklungen zu verfolgen.

Kommerzialisierung von ChatGPT bereits angelaufen

Trotz mancher Beschränkungen und Vorbehalte ist die Kommerzialisierung des ChatGPT-Systems (wie auch anderer Sprachmodelle) bereits angelaufen: Unternehmen werden von OpenAI aktuell unterschiedliche Packages und API-Pläne für den Einsatz angeboten. Angeboten wird dabei auch das Training des Sprachmodell-Systems für unternehmens- und kundenspezifische Anwendungsfelder, Themen und Anfragen. Wie zum Beispiel für die automatisierte Kundenkommunikation, im Marketing oder als Vertriebsunterstützung in automatisiert geführten Verkaufsprozessen.

Angestrebt wird damit beispielsweise, die Kunden im Internet möglichst schnell und effektiv bei ihrer Suche nach Informationen zu bestimmten Anliegen oder Produkten zu unterstützen. Und dies gegenüber den herkömmlichen „deterministischen“ Chatbots (mit ihren fest vorprogrammierten Antworten und Dialogformen) in deutlich leistungsfähigerer, flexiblerer, umfassenderer und natürlich-sprachiger Konversations-Form. Einsetzen lässt sich das System darüber hinaus auch im E-Learning bzw. in der internen Aus- und Weiterbildung.

Im Boot sind hier auch die großen Tech-Player: Microsoft investierte bereits 2019 eine Milliarde US-Dollar in OpenAI und plant aktuell noch viele weitere Milliarden in das Unternehmen zu investieren. Microsoft scheint in der KI aktuell auch weit mehr Potenzial zu sehen als im anderen Hype-Thema „Metaverse“. Möglicherweise wird ChatGPT von Microsoft in seine Suchmaschine BING und in Office365 eingebunden und über die Azure-Cloud verfügbar gemacht.

Schon jetzt kann ChatGPT recht überzeugend Makros oder andere kleine Anwendungen programmieren. Im Office-Kontext könnte diese Technologie also beispielsweise geeignet sein, um in natürlicher Sprache eingegebene Anweisungen in automatisierte Abläufe zu überführen.

Und auch konkurrierende sprachmodellbasierte KI-Dialog-Systeme bzw. Chat-Modelle − wie etwa von Google und dem Schwesterunternehmen Deepmind oder auch Meta − schlafen in ihren Entwicklungs- und Kommerzialisierungsbemühungen nicht.

Grundsätzlich gilt für kommerzielle Nutzung von ChatGPT und dem zugrundeliegenden Sprachmodell GPT-3: Die Nutzung ist kostenpflichtig. Und es bestehen seitens OpenAI auch keine Pläne, dies in Zukunft zu ändern. Ob das System nach der öffentlichen Testphase für private Zwecke dauerhaft verfügbar sein wird, steht in den Sternen.

Die aktuelle Testversionen sind für einen begrenzten Zeitraum verfügbar. Und ermöglichen Unternehmen, sich einen Eindruck von den Funktionalitäten und Leistungen des Systems zu verschaffen, bevor sie sich für einen möglichen Kauf und eine unternehmensspezifische Nutzung entscheiden. Die genauen Kosten und Voraussetzungen für den Zugang zu GPT-3 können auf der Website von OpenAI eingesehen werden.

Insgesamt handelt es sich – nach eigener Aussage von ChatGPT – um eine sehr kostspielige Technologie, die auch nicht für alle Kontexte gleichermaßen geeignet ist. Zudem es einiger Vorbereitung bedarf.

Lohnt für Unternehmen die Nutzung von ChatGPT (oder anderen KI-basierten-Dialogsystemen)?

Diese wichtige Frage lässt sich verständlicherweise nicht mit einem einfachen „Ja“ oder „Nein“ beantworten. Zu unterschiedlich sind dafür mögliche spezifische Zielsetzungen, Anwendungsfelder, Nutzenerwartungen, Ressourcen, Chancen und Risiken. Grundsätzlich bieten aktuelle, weiterentwickelte KI-basierte Dialog-Systeme eine große Vielfalt an Anwendungsmöglichkeiten. Nicht zuletzt auch im Kundenservice und in der Kundenkommunikation.

Zuvor stellen sich jedoch eine Vielzahl an Fragen, beispielsweise:

  • Welche Erfahrungen wurden im eigenen Unternehmen bisher schon mit dem Einsatz von Chatbots gemacht? Sprechen diese – sofern vorhanden – eher dafür oder dagegen, dieses Angebot – zumal auf weiterentwickelter Basis – auszubauen? Oder eher nicht?
  • Wie steht es um die Rentabilität? Lohnt sich die Investition in KI-basierte, automatisierte Dialog-Systeme? Mit Blick auf welche Parameter? In welchen Geschäftsprozessen? Über welche Zeiträume?
  • Welche grundlegenden technischen Voraussetzungen müssen gegeben sein (API-Schnittstellen etc.)?
  • Welche repetitiven Prozesse lassen sich vollständig automatisieren und standardisieren, um Ressourcen für Aufgaben mit größerer Wertschöpfung freizusetzen?
  • Passt eine zunehmende Automatisierung der Beziehungen und der Kommunikation mit unseren Kunden generell zu den übergreifenden Zielen, Werten, Anforderungen und Strategien unseres Unternehmens? Passt dies zu unserer Marke und zu unseren Kundenversprechen? Zum „Geist und Stil“ des eigenen Hauses?
  • Treffen KI-basierte Anwendungen die Bedarfe, Erwartungen und Wünsche unserer Kunden?
  • Welche Signale setzen wir damit nach innen oder nach außen?
  • Wie wollen wir in unserem Unternehmen zukünftig die Kommunikation nach Innen und Außen gestalten?
  • Wie lassen sich Chatbots sinnvoll in Customer Journeys und klassische Dialog-Formate integrieren, ohne diese zu behindern?
  • Wollen wir in puncto weiterentwickelter automatisierter Kundendialog-Systeme „Vorreiter“ und „Early Adopter“ sein – oder bewusst erstmal abwarten und schauen, was der Wettbewerb macht?
  • Wie können solche Systeme nicht nur technisch, sondern auch inhaltlich in bestehende Systeme und Formen der Kundenbeziehung integriert werden?
  • Welche Anwendungsszenarien erscheinen für unser Unternehmen besonders attraktiv? Welche eher weniger?
  • Welche Möglichkeiten zur Pilotierung und der marktforscherischen Begleitung der Implementation bestehen und sollten umgesetzt werden?
  • Welche Fragen sollten vor dem Einsatz solcher Systeme mit Blick auf die Kunden / Anwender vorab geklärt werden? Welche prozessbegleitend und evaluierend?
  • Wer übernimmt im Implementierungsprozess welche Verantwortung und wie sollte dieser organisational und entscheidungsbezogen am besten gestaltet werden?

Überlegen Sie selbst einmal: Welche weiteren Fragen und Anforderungen stellen sich für Ihr eigenes Unternehmen im Kontext automatisierter Chat-Modelle?

Insgesamt wird sichtbar: Der Einsatz – auch höher entwickelter automatisierter Dialog-Systeme – drängt sich bei aller Begeisterung für deren fortschreitende Entwicklung und Leistungsfähigkeit nicht „automatisch“ oder „naturgegeben“ auf. Dennoch sollte jedes Unternehmen die Entwicklungen in diesem Bereich genau beobachten und eigene Strategien im Umgang mit KI-Systemen entwickeln. Noch vor wenigen Monaten hätten viele Menschen einen derart leistungsfähigen Chatbot wie ChatGPT nicht für möglich gehalten. Zugleich gilt: So genannte „Zukunftstechnologien“ können, müssen aber nicht unbedingt, im konkreten Fall auch in eine bessere oder erfolgreichere Zukunft führen.

Generell besteht daher keinerlei Anlass, KI-Systeme als Allheilsbringer zu betrachten, ebenso wenig wie diese zu verteufeln. Abschließend noch ein paar weitere wichtige Gesichtspunkte zu ChatGPT.

Wem gehören die von ChatGPT produzierten Texte?

Mit Blick auf die Weiterverwendung der von ChatGPT produzierten Texte – beispielsweise auf die Aufforderung an das System hin, einen Text zu einem bestimmten Thema zu schreiben – wird diese von OpenAI nicht grundsätzlich ausgeschlossen. Zugleich verweist OpenAI allgemein auf die Nutzungsbestimmungen (Testversion, kommerzielle Versionen) und auch auf mögliche Urheberrechte. Es empfiehlt sich, sich an lokale gesetzliche Bestimmungen zu halten. Sich diesbezüglich an OpenAI zu wenden. Urheberrechtlich wie auch in puncto der Kenntlichmachung erscheinen hier viele Fragen noch ungeklärt und als diffuse „Grauzone“.

In Zukunft werden sich in manchen Feldern zudem Unsicherheiten und Zweifel mehren: Ob Texte der unterschiedlichsten Art noch von angegebenen Autoren stammen oder ob diese von einer KI produziert wurden. Ob die Erstellung von Standard-Texten noch eine Leistung ist. Ob sich Schein-Autoren und Schein-Wissende quasi zu „Copy-Pastern“ verstümmeln. Ob Unternehmen vermehrt nur noch über wenig originäre und originelle Standard-Texte kommunizieren wollen.

Universitätsprofessoren sehen mit KI-Systemen wie ChatGPT bereits die Gefahr heraufziehen, dass Hausarbeiten an Universitäten zukünftig nicht mehr von den Studenten selbst, sondern von ChatGPT geschrieben werden könnten. Auch in anderen Bildungseinrichtungen und Schulen bestehen Bedenken, dass die technologische Simulation menschlichen Wissens zur Simulation eigenen (Als-ob) Wissens genutzt werden könnte. In bestimmten Kontexten wurde der Einsatz von ChatGPT intern auch bereits verboten. Bisherige Systeme zum Aufspüren von Plagiaten versagen bei ChatGPT allerdings, da die Texte keine Kopien der verwendeten Quellen darstellen, sondern auf der Wiedergabe von daraus erlerntem Wissen beruhen.

Mit Blick auf mögliche Fehlverwendungen, Täuschungsabsichten und Blendereien von und mit KI kommt der IT-Autor Sebastian Grüner zu folgendem interessanten und provokativen Resümee:

„[…] zeigt der Erfolg der KI-Modelle, was wir alle über Menschen eigentlich schon lange wissen: Menschen betrügen, nehmen Abkürzungen und ihre Faulheit siegt im Zweifel immer. Für diesen Zweck gibt es mittelfristig wohl zahlreiche neue und leicht zugängliche Werkzeuge auf Grundlage von KI.“

Der Mensch hat die KI in der Hand – und ist dafür auch verantwortlich

Solche und weitere Befürchtungen erscheinen sicher nicht gänzlich unbegründet. In ihrer Übersteigerung (beliebte Narrative dabei: intelligente Maschinen sind Menschen überlegen, werden Menschen vollständig kopieren und ersetzen können, machen keine Fehler, können wie Menschen „denken und fühlen“ etc.) aber vielfach auch nicht realistisch.
Andernorts bestehen daher auch weniger Bedenken gegenüber ChatGPT: der sinnvolle Einsatz des Systems wird aktiv gefördert und mit KI-Systemen auf neue Lernimpulse und auf neue Formen der interaktive Wissensaneignung gesetzt.

Die der KI inhärenten Probleme und Fehler (die ursprünglich und fundamental menschengemacht sind), lassen sich nur durch Menschen lösen. Trainiert und gefüttert wird KI immer von Menschen und auf Basis menschlicher Wissens- und Regelsysteme. In all ihrer Größe und in all ihrer Unzulänglichkeit. Mehr als das – wenn auch in zunehmend leistungsfähigerer, effizienterer und mitunter verblüffender und „blendender“ Form – kann auch KI letztlich nicht berechnen und simulieren. Es lassen sich mit KI und deren Simulationen aber auch neue menschliche Erkenntnisse gewinnen.

KI sollte daher nicht naiv oder folkloristisch als Allheilmittel oder „Gottmaschine“ angesehen und verstanden werden. Sondern als produktives und vielfältiges Tool, das bestimmte sinnvolle und nützliche (wie auch zahlreiche nicht-sinnvolle und unnütze) Einsatzkontexte und spezifische Chancen und Grenzen hat. Übersteigerungen und Phantastereien, in die eine wie andere Richtung, machen wenig Sinn. Beleben allenfalls das mediale Geschäft oder befeuern irrationale Lagerbildungen.

„DIE ZEIT“ stellt in ihrer Ausgabe 02/2023 die Titel-Frage: „Haben Maschinen eine Seele?“ – hypegerecht, aufmerksamkeitsökonomisch und mystisch angehaucht. Die einfache und nüchterne Antwort darauf lautet: Nein. Weder Seele noch Bewusstsein. Maschinen können von Menschen aber durchaus als menschenähnlich wahrgenommen werden (nebenbei: Menschen umgekehrt auch als Maschinen wahrgenommen werden). Ganz so, „als ob“ diese bewusstseinsfähig und beseelt seien. KI-basierte Maschinen und Automatismen können bestimmte und umgrenzte menschliche, intelligente und emotionale Aspekte simulieren und vortäuschen und werden dabei zunehmend leistungsstärker und überzeugender. Folgen Logiken und in gewissem Maße auch Psycho-Logiken, die zutiefst menschengemacht und im menschlichen Raum wirksam sind.

Können Menschen (deren Fähigkeiten, Talente, Handeln etc.) nicht grundsätzlich und vollständig ersetzen – deren Produktivität und Kreativität aber unterstützen. Diese von Routinen entlasten und deren Aufgaben vereinfachen. Liefern zugleich neue Chancen und Wege der Inspiration. Ebenso Risiken. Insbesondere dann, wenn der Mensch die Verantwortung über deren Einsatz, Wirkungen, Konsequenzen und Fehler aus der Hand gäbe bzw. gibt. Sich dahinter versteckt und maskiert, damit täuscht oder sich mit KI-verbundener Handlungs- und Entscheidungsverantwortungen zu entziehen versucht.

In diesem Sinne: Viel Spaß, Neugierde und Forscherfreude beim eigenen Ausprobieren von ChatGPT oder auch ähnlicher KI-Systeme.

Lassen Sie sich einfach mit etwas Zeit und Muße mal auf den Mensch-Maschine-Dialog ein. Erkunden Sie selbst Möglichkeiten und Grenzen. Führen Sie diese Auseinandersetzung vertiefend fort, wenn Sie schon erste spontane Erfahrungen gewonnen haben. Es lohnt sich! Bisweilen entdeckt man dabei übrigens auch – ebenfalls mit Erstaunen – die grenzenlose Vielfalt, Kreativität und Reichhaltigkeit menschlicher Sprache und zwischenmenschlicher Dialogfähigkeiten wieder…

Über den möglichen – sinnvollen, angemessenen, nützlichen, kreativen und verantwortungsvollen Umgang mit KI-Systemen wie ChatGPT sowie über deren bewussten Einsatz oder Nicht-Einsatz – müssen, jetzt und in Zukunft, Menschen und Unternehmen selbst entscheiden.

Als Unternehmen dabei nicht zuletzt auch die Stimme und das Gewicht ihrer Kunden, Nutzer und weiterer Stakeholder im Auge behalten. Die Technik selbst ist in dieser Frage völlig emotionslos.
Gibt darauf keine Antwort.

Kontakt aufnehmen und austauschen

Interessiert am weiteren Austausch zur Verwendung von Chatbots und anderen KI-Systemen in unternehmensbezogenen Einsatzkontexten und damit verbundenen Forschungsprojekten und Perspektiven? Sprechen Sie uns gerne darauf an:

Robert Quinke – robert.quinke@heuteundmorgen.de – Telefon: +49 221 995 005-13.

Wir freuen uns auf den vertiefenden Austausch mit Ihnen!

Lesen Sie ergänzend gerne auch unseren Blogbeitrag zu KI-Bildgeneratoren.

Weitere Blogbeiträge zu zukunftsrelevanten und innovativen Themen – speziell auch zur Digitalisierungsforschung und zum Innovationsmanagement – finden Sie regelmäßig auch auf der Themenübersicht unseres Blogs „Plan Z – Zeit für Zukunft“.

  • Ihre Bewertung
Sende
Benutzer-Bewertung
4.89 (55 Bewertungen)
Teilen Sie diese Information
Share on facebook
Facebook
Share on twitter
Twitter
Share on linkedin
Linkedin
Share on xing
Xing
Share on email
Email