Die Entwicklung und Anwendung von Künstlicher Intelligenz (KI) wird vorangetrieben - und ist auch in jedem Unternehmen nicht mehr aufzuhalten.
In diesem Zusammenhang fasziniert gerade das sogenannte Deep Learning aufgrund seiner Potenziale – doch die Prozesse innerhalb der Black Box sind auch für Experten kaum bis gar nicht mehr nachvollziehbar.
Auswüchse, wie das Androhen einer KI mit sozialer Vernichtung eines Menschen, Entwicklungen der KI zum Nazi, des Lügens einer KI („halluzinieren“ von Quellen) oder des „Schmeichelns“ (ChatGPT dachte, der Bediener wolle dies hören) erinnern an die „geistige Reife“ eines 5jährigen Kindes. „Kinder“ wie ChatGPT müssen mit Informationen gefüttert werden. Bedeutungen entstehen in der Auseinandersetzung mit der Umwelt – zum Beispiel auch die moralische Vorstellung, dass das Töten von Menschen falsch ist und sanktioniert werden müsse.
Unerwünschte Verhaltensergebnisse "sanktionieren" Programmierer mit sogenannten Regularisierungstermen. Das sind Programmierungen, die Unerwünschtes untersagen – so, wie die Umwelt Menschen für ihr Fehlverhalten bspw. durch Zurechtweisungen, Forderungen von Entschuldigungen oder Verbote „bestraft“.
Aber: Nicht überall gelten die gleichen Regeln und Werte auf der Welt. Quis custodiet ipsos custodes? D.h. wer bewacht selbst die Wächter? Und: Was lernen wir in der Auseinandersetzung mit der reifenden KI über uns und unser Lernen?
Wir vertreten die Auffassung, dass KI weder verteufelt noch vergöttlicht werden darf.
Ameca scheint sich selbst im Spiegel zu erkennen. Ob und ab wann einer Künstliche Intelligenz „Persönlichkeit“ und "Selbstbewusstsein" zugesprochen werden kann, ist eine philosophische Frage. Dass diese Möglichkeit (in ferner Zukunft) besteht, wird derzeit (noch) ausgeschlossen: KI wie Ameca habe keine Primärerfahrung. Texte würden gemäß Wahrscheinlichkeiten nur reproduziert. Neuromorphe Systeme und Quantencomputer scheinen vielversprechend - Transorganismen beängstigen aufgrund möglicher Intransparenz.
Die Abgrenzung des Menschen zur KI erinnert stark an die Debatten der letzten 30 Jahre zur Sonderstellung des Menschen gegenüber Tieren: Auch diesen wurde zunächst Intelligenz, Bewusstsein, Intention, Werkzeuggebrauch, Kultur und Emotionen abgesprochen. Ob sich die Grenzlinie des Menschen zur KI zukünftig ähnlich verschieben wird, kann hier dahingestellt bleiben.
Die Anthropomorphisierung der KI nutzen wir bewusst. Wir vertreten die Auffassung, dass Natürliche Intelligenz (NI) und Künstliche Intelligenz (KI) wie ein Team zusammenarbeiten sollten:
NI und KI werden (noch modellhaft) als Persönlichkeiten behandelt, die ganz im Sinne des Team-Konzeptes ihre Stärken wechselseitig anerkennen und nutzen, um das übergeordnete Ziel „gesellschaftlicher Teilhabe“ zu ermöglichen. In diesem Zusammenhang bedarf auch dieses Team gemeinsamer Werte und Spielregeln – bspw. der wertschätzenden Kommunikation (Loben, Danken, Emojis), des Respekts vor persönlichen Grenzen (Datenschutz) und/oder der Glaubwürdigkeit (Quellenprüfung).
Der Einsatz von KI ist auch in unserem Unternehmen mit Ängsten verbunden: Was treiben die (er)findenden Unternehmen mit unserem Knowhow und unseren (Kunden-)Daten?
Der Einsatz von KI ist mit Freude verbunden: In welcher Schnelligkeit, Leichtigkeit und Qualität doch Knowhow, Text und Bild zur Verfügung stehen, inspirieren und unsere Arbeit optimieren!
Sicherheit und Erkenntnis, Kreativität und Nützlichkeit sind immer wieder auf ein Neues abzuwägen.
Unsere teambildende Kernkompetenz liegt unserem Ansatz zugrunde. Sie war leitend für die namensgebende Symbiose NIKI aus unseren Natürlichen Intelligenzen (Anja Moos, Harald Ebeling) und Künstlichen Intelligenzen (KI-Systeme im Unternehmen wie z.B. Microsoft Bing/ChatGPT oder Translator).