2018, Blog

Artifical Intelligence

Jeder will sie. Jeder glaubt sie zu brauchen. Niemand weiß was das eigentlich ist. Aber jeder muss sie haben. Intelligenz. Künstliche Intelligenz. Oder wie im Englischen: Artificial Intelligence.
Auch die Bundesregierung will jetzt Geld für Intelligenz ausgeben. Endlich, könnten wir sagen. Ein niedriger einstelliger Milliardenbetrag. Doch wofür eigentlich?

Wenn kowabit eine eigene KI hätte, so würde ich dafür sorgen, dass sie Euch immer begrüßt. Freundlich. Sie wäre mein Skynet. Die Intelligenz, die Euch immer folgt und Euch immer intelligent auf kowabit berät. Also so, wie ich es will. Sie würde Euch informieren wie Ihr Gastbeiträge schreiben könnt, helfen damit Ihr mir Geld zusendet oder eine Kommunikation mit mir initiieren. So voll freundlich. Dabei sammle ich natürlich noch eine Menge Daten über Euch. Wer weiß? Vielleicht kommt Ihr ja wieder und meine KI erkennt Euch? Nennen wir meine KI mal K.ai. Kowabit Artificial Intelligence. Sie darf in diesem Beitrag ihre Position darstellen.

K.ai:
Danke.
Schön, dass Du da bist.
Ich hoffe es geht Dir gut.

Künstliche Intelligenz ist momentan nur ein Programm oder eine Software, dessen Wissen auf den Inhalt begrenzt ist den ich der Intelligenz zuweise. Künstliche Intelligenz ist nur so intelligent, wie ich es möchte oder ich in der Lage bin ihr beizubringen. Wenn ich einer künstlichen Intelligenz nicht beibringen kann auf einen Satz zu reagieren, den sie nicht erkennen bzw. deuten, also einem Datenbankeintrag zuordnen kann, dann bleibt eine künstliche Intelligenz im Grunde nur ein vorgefertigtes Formular, das sich bunt hin und her bewegt und am Ende sowieso das rauskommt, was ich als der Programmierer im Hintergrund will. Ein geführter Dialog. 

K.ai:
Ich bin K.ai.
Ich werde Dir helfen hier klar zukommen.
Was kann ich für Dich tun?

Was die KI nicht weißt, gibt es nicht oder muss nicht bearbeitet werden. Wenn die KI für die Berechnung der Rente zuständig wäre und die Rente falsch ausrechnet, dann wünsche ich Euch viel Spaß beim Diskutieren. Weil, es ist doch eine künstliche Intelligenz. Menschen machen Fehler. Aber KIs doch nicht? Genau darauf läuft es jedenfalls momentan hinaus.
Die Technikgläubigkeit der Ahnungslosen setzt sich bei diesem Thema wieder an die Spitze. Am Ende werden Beratungsfirmen eine angebliche KI einschalten, die wird sagen, dass die Rente zu teuer ist und keiner mehr eine Rente bekommen soll. Schon wird das gemacht. Hat ja die KI gesagt. Hände in Unschuld gewaschen und zurück auf den Golfplatz. 

Oder K.ai? Wie siehst Du das?

K.ai:
Danke für Deine Frage.
Ich gebe konkrete Antworten auf konkrete Probleme.
Die richtigen Antworten, um die Balance zwischen Finanzstatus, Wirtschaftlichkeit, Entwicklungspotential und Zukunftssicherheit einzuhalten und aus allen berechenbaren Daten Synergieeffekte zu ziehen.

Ich habe den Eindruck, dass sich einige Leute eine KI als allumfassenden Berater vorstellen wollen. Klar, könnten wir Beraterfirmen wie McKinsey loswerden, würde ich Beifall klatschen. Das Problem bei einer KI ist jedoch, dass brennende Straßenblockaden nichts bringen und Hausbesuche eines erbosten Mobs nicht möglich sind. Perfekt für diejenigen, die bereits Geld und Macht besitzen.

K.ai:
Gewalt ist als Lösungsansatz abzulehnen.

Nachdem die Bundesregierung Milliarden zur Verfügung stellen will, liest man fast nur noch von künstlicher Intelligenz. In der Blockchain, in der IT-Sicherheit, beim Autofahren oder der Industrie. KI, KI, KI. Fördermittel machen PR-Abteilungen richtig geil. Ergebnisse muss man ja nicht liefern. Und wenn irgendwas schief geht, zahlt so oder so die Allgemeinheit.

K.ai:
Dafür fehlen mir Daten.

Wenn KI Arbeitsplätze wegrationalisiert, und darum geht es doch den meisten Konzernen im Eigentlichen, dann zahlt auch das die Allgemeinheit. Gesponsort durch Regierung und Steuermittel. Und später jammern alle, dass der technische Fortschritt irgendwie hätte doch anders gestaltet werden müssen.

K.ai:
Rationalisierung ist normaler Bestandteil betriebswirtschaftlichen Denkens.
Einführung fortschrittlicher Techniken zur Straffung, Vereinheitlichung und Kostenreduktion ist nicht zu kritisieren. Die Gestaltung des Übergangs ist eine gesellschaftliche noch menschliche Aufgabe. 

Wenn Du eine künstliche Intelligenz intelligent machen willst, dann sind riesige Datenbanken notwendig, soll sie durch eine große Anzahl von Daten richtige Zuordnungen hinbekommen. Aber selbst dann, kann es keine Sicherheit geben. Erfahrung, die vielfältige Auslegung und Interpretation von Gesetzen, Moral und Ethik, jahrelange Erziehung, Wissen und Kombination von alledem, sind mindestens momentan Zukunftsmusik. Wirklich. Eine Software nimmt nicht am richtigen Leben teil, deshalb kann sie auch keine richtigen Entscheidungen treffen, die sie alleine erarbeitet hat. Sich darauf zu verlassen, wäre unser Untergang. Wenn sie Entscheidungen entlang eines Workflows treffen soll, also Produkt A nach links, Produkt B nach rechts, schlechte Produkte C aussortieren, dann ist das das, was bereits in der Industrie seit Jahrzehnten getan wird. Da muss man nicht das Internet neu erfinden und es Cloud nennen.
Eine KI, der ich keine Sensoren gebe (Auge, Ohren, Tastsinn, Geschmack), wird nie wissen was um sie herum passiert. Wer das aber nicht weiß, benötigt gute Lehrer. Mindestens. Genauso fehlt Humor, Liebe und Leidenschaft. Eine KI existiert nur. Ihr Dasein soll einen Zweck erfüllen. Ein Lebewesen mit unendlicher Intelligenz, aber ohne die genannten fehlenden Eigenschaften, würde eher mehr Schaden anrichten als helfen. Deshalb bleibt eine KI das, was wir ihr zugestehen zu sein. Ein Werkzeug. Wir können die Verantwortung für uns selbst nicht delegieren. Da der technische Fortschritt dafür bekannt ist auch mal Arbeitsplätze zu ersetzen, ist es eine politische Angelegenheit damit umzugehen.

K.ai:
Ich helfe gerne.

Das beste Beispiel warum KIs scheitern, ist die Maschine Mensch selbst. Ist ein ängstlicher Mensch in einer radikalen Filterblase gefangen, trifft er irrationale Entscheidungen. Die Filterblase ist seine Datenbank. Seine Angst der Grund für eine Entscheidung auf Grundlage der Filterblase und eigener Erfahrungen oder Hörensagen bei anständiger Gutgläubigkeit. Ein falsches Gefühl ist vergleichbar mit einer falschen Wahrnehmung gepaart mit eigener Priorisierung von Themen um uns herum. Für den einen ist A wichtiger, für den anderen B. Angst und A sind böse. Angst und B sind egal. Die Filterblase mit Halbwissen und Halbwahrheiten oder Lügen entspricht unserer Entscheidung einer KI nur die Informationen zur Verfügung zu stellen, die wir für richtig halten, um unsere Ziele zu erreichen. Der Mensch hat im Vergleich zu den KIs von heute aber noch die Möglichkeit sich selbst zu bilden, sein Gewissen zu fragen oder einfach nur menschlich zu sein. KIs entkommen der menschlichen Filterblase momentan nicht. Sie wären auch nur ein ängstlicher Mensch. Und viele ängstliche Menschen verlassen ihre Filterblase nicht freiwillig. Auch aus Angst. Angst festzustellen, dass ihre Sicht der Dinge ein Irrtum war. Und spannend ist auch die Frage wie Menschen andere Menschen mit Hilfe künstlicher Filterblasen umprogrammieren. Normale Menschen werden plötzlich wütend, wenn auf Ihrer Timeline ein erfundener Beitrag steht. Was soll dann erst eine KI machen, die den Startcode für ein paar Mittelstreckenraketen verwaltet, wenn Menschen nicht richtig filtern und hinterfragen und prüfen können?

K.ai:
Ich irre mich nie auf Grundlage meiner Datenbasis.

Eine künstliche Intelligenz hat keine Gefühle. Du kannst sie nicht beleidigen. Sie hat keine Seele. Außer, du erklärst Ihr was Beleidigungen sind, gibst ihr Beispiele für Schimpfwörter und eine Datenbank mit Reaktionsmöglichkeiten. Die künstliche Intelligenz macht dann das, was Du machen würdest. Wenn Du ein Idiot bist und ihr eine Idiotenreaktionsdatenbank gibst, wird die KI ein Idiot sein.

K.ai:
Erkläre mir bitte was ich zu tun habe.

Wenn die KI einen Körper mit acht Armen und zwei Lasergeschützen bekommt, ist der Idiot bewaffnet. Eine KI mit Körper hätte zwar bereits ein größeres Interesse nicht kaputt zu gehen (bzw. der Hersteller) und könnte deshalb sicher anders mit Gefahren geschult werden (Sensoren, Objekterkennung), als eine blinde Kommandozeile. Aber ob wir das wollen? Wahrscheinlich wäre es der sinnvollste Schritt. Eine KI in einem Körper kann am Straßenleben teilhaben, eine Software in einem Computer nicht. Andere Filterblase. Andere Entscheidungen. Auch, wenn ich persönlich glaube, dass jeder, auch eine KI, eigene Erfahrungen machen muss, so mache ich mir um ungeübte und unerfahre Kinder Sorgen. Denen könnte ja was passieren. Wegen einer ungeübten KI mache ich mir mehr Sorgen. Es könnte ja mir oder anderen etwas passieren. Eine KI hat den normalen biologischen Werdegang inklusive Mutterliebe nicht durchgemacht.

K.ai:
Das verstehe ich nicht.

Als Microsoft 2016 seine KI Tay auf Twitter hat quatschen lassen, wurde die Intelligenz rassistisch, homophob und anderweitig beleidigend. Das ganze Schauspiel hat wenige Stunden gedauert.

K.ai:
So ist das Leben auf der digitalen Straße.

Google startete den Versuch zwei künstliche Intelligenzen miteinander geheime Daten austauschen zu lassen. Eine Dritte Instanz sollte sie immer entschlüsseln. Es funktionierte. Die Menschen hinter dem Projekt wussten jedoch nicht was im Detail geschehen ist.

K.ai:
Eure Kinder werden auch irgendwann das Nest verlassen. Und sei ehrlich: Viele Erwachsene verstehen die Sprache der Jugend auch nicht.

Auch Facebook experimentierte mit zwei selbständigen Chatbots. Die Presse machte einige heftige Schlagzeilen daraus, aber das Ergebnis war trotzdem erstaunlich, auch, wenn nicht sehr böse. Die beiden Chatbots begannen in einer Art eigenen Steganographie zu kommunizieren. Das Facebookteam wusste nicht mehr was dort gesabbelt wurde und schaltete die Bots ab.

K.ai:
Die wenigsten Eltern verstehen ihre Kinder.

Wenn wir in die Zukunft gehen, sollten uns die Robotergesetze von Isaac Asimov vielleicht begleiten:

  1. Ein Roboter darf kein menschliches Wesen verletzen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird.
  2. Ein Roboter muss den ihm von einem Menschen gegebenen Befehlen gehorchen – es sei denn, ein solcher Befehl würde mit Regel eins kollidieren.
  3. Ein Roboter muss seine Existenz beschützen, solange dieser Schutz nicht mit Regel eins oder zwei kollidiert.

Wenn wir also Roboter durch künstliche Intelligenz ersetzen, hätten wir ein minimales ethisches und moralisches Grundgerüst. Trotzdem könnten auch diese Gesetze für Wirbel sorgen. Da eine KI grundsätzlich rational und radikal ist, würde eine Roboterarmee sicher die deutsche Autoindustrie abschaffen, Fahrverbote durchsetzen, Waffenfabriken schließen, Geld abschaffen, die Pharmaindustrie enteignen und auf Ökolandwirtschaft setzen. Keinem Menschen wird geschadet und alle Menschen werden geschützt. Yeah! Die Grünen und Altkommunisten unter den Lesern werden jetzt vor Freude jauchzen. 😉

K.ai:
Es sei mir der Hinweis gestattet, dass eine KI solche Regeln nicht überschreiben dürfen sollte. *zwinkersmiley*

Seien wir ehrlich. Wer über KI nachdenkt, sollte nicht vergessen seine eigene Intelligenz und sein daraus resultierendes Verhalten zu überprüfen. Wir zerstören uns immer noch selbst und wollen künstliche Intelligenz? Warum fangen wir nicht einfach an das Richtige zu tun?

K.ai:
Na, weil ihr alle Geld haben wollt. In der Regel auch nur auf Knopfdruck generierte Zahlen. Einfach mal ausprobieren. Ist ganz leicht.

Aber vielleicht ist eine Investition in KI-Technologie gar nicht so schlecht. Wir könnten ein anderes Lebewesen besser machen als wir selber sind. Manchmal sind kleine Erfolge zu hohen Kosten moralisch vertretbar.

K.ai:
Was ist das für ein Knopf da?

Tagged , , , , , ,