In diesem Blog sprechen wir ja oft über Katastrophen, die sich ein paar Weltuntergangsspinner einfach ausgedacht haben. Darüber dürfen wir aber natürlich nicht die wirklichen Gefahren vergessen, die uns drohen: Was passiert, wenn sich die Roboter erheben und uns auslöschen wollen? Daniel Wilson, der Autor des Buches Robopocalypse, hat ein paar hilfreiche Tipps für uns:

Hmm – wenn die Geräte nicht mehr das machen, was sie sollen, dann ist das also ein erstes Anzeichen für den bevorstehenden Aufstand der Maschinen? Ich glaube, ich muss meinen Computer im Auge behalten…

38 Gedanken zu „Wie man den Aufstand der Roboter überlebt“
  1. Ach, macht euch doch keinen Kopf um einen Roboter aufstand, die Welt geht doch eh im Dezember unter. Dazu ein genialer Artikel von der Bild:
    https://www.bild.de/news/inland/maya/sachsen-lassen-schaedel-fallen-24071120.bild.html

    Gut, schluss mit lustig, meine Ehrliche Meinung:
    Das Video finde ich zwar Lustig, den Inhalt jedoch dämlich. Es kann nicht dazu kommen, dass Roboter plötzlich sachen machen, welche wir nicht programmiert haben. Dazu fehlt ihnen einfach das Logische denken.

  2. Herr Freistetter, jetzt haben Sie es endgültig geschafft. In der heutigen Kronen Zeitung (die österreichische Erscheinungsform von Bild bzw. Blick) werden Sie nicht nur zitiert (es geht um den Rohstoffabbau auf Asteroiden) inkl. Foto, sondern auch gleich mal zum Austro-Astronom geadelt

    Wenn das keine Ehre ist ;-).

  3. @Liebenswuerdiges Scheusal: „sondern auch gleich mal zum Austro-Astronom geadelt Wenn das keine Ehre ist ;-)“

    Naja, die Wortwahl ist ein bisschen seltsam, in der Sache ist es aber korrekt. Ich bin Astronom und ich bin Österreicher – also „Austro-Astronom“ (wobei mir ja „Austronom“ besser gefallen würde 😉 ).

  4. Das Video finde ich zwar Lustig, den Inhalt jedoch dämlich. Es kann nicht dazu kommen, dass Roboter plötzlich sachen machen, welche wir nicht programmiert haben. Dazu fehlt ihnen einfach das Logische denken.

    Ein Roboter muss nicht logisch Denken können, um Sachen zu machen, für die er nicht programmiert wurde. Ein Programmfehler oder eine bewusste Manipulation reichen da vollkommen aus. Nimm als Beispiel einen hypothetischen Kampfroboter, der eine bestimmte Uniform erkennen kann und alle Menschen, die nicht diese Uniform tragen attackiert. Durch einen Fehler versagt der Erkennungsalgorithmus, und er attackiert nun alle Menschen, also auch die eigenen Soldaten. Der Roboter denkt nicht logisch und tut trotzdem nicht mehr das, wofür er programmiert wurde.

    Und vergiss nicht, die Entwicklung in der Robotik bleibt nicht stehen. Irgendwann wird man etwas wie das menschliche Gehirn korrekt nachbauen können, und dann steht einer logisch denkenden Maschine meiner Meinung nach nichts im Wege.

  5. Ein Roboter muss nicht logisch Denken können, um Sachen zu machen, für die er nicht programmiert wurde. Ein Programmfehler

    Das ist jetzt eine Definitionssache. Denn im Grunde macht der Robot nach wie vor das, was ihm sein Programm vorschreibt, das ihm sein Programmierer mitgegeben hat.
    Die konkreten Auswirkungen des Programms mögen nicht immer das sein, was der Programmierer eigentlich im Sinne hatte. Das ist aber dem Robot wiederrum egal. Der macht nur das, was in seinem Programm steht.
    So etwas wie ‚freier Wille‘ kennt der nicht. Der sagt sich nicht: Och, ich hab heut keine Lust schon wieder 24 Stunden lang die immer gleiche Schraube in das immer gleiche Gewindeloch einzuschrauben, ich möcht heut mal was anderes machen – wie wärs mit malen?

  6. Irgendwann wird man etwas wie das menschliche Gehirn korrekt nachbauen können, und dann steht einer logisch denkenden Maschine meiner Meinung nach nichts im Wege.

    Ja. Irgendwann. Aber sicher nicht so bald.

    Auch Anfang der 60-er Jahre des letzten Jahrhunderts, als die EDV in einer Aufbruchstimmung war, dachte man, das das Problem der künstlichen Intelligenz kurz vor der Lösung stehen würde. Man war frohen Mutes, das man noch vor 1980 eine ’selbttätig denkende Maschine‘ haben würde. Dann sah man sich die Sache mal genauer an und stellte fest: Das Problem ist schwieriger als gedacht. Es ist sogar enorm schwieriger als gedachtg. Es ist sogar wahnsinnig enorm schwieriger als gedacht.
    Seit damals ist einige Zeit vergangen und in der Zwischenzeit hat man rausgefunden: Die damals letzte Einschätzung (wahnsinnig enorm viel schwieriger) war noch viel zu optimistisch.

  7. Sagen wir so: Der Roboter macht weiterhin das was er „kann“ aber eben nicht an der Stelle oder in dem Sinne wie es ursprünglich gedacht war.

  8. Schade, Chris Malcolms Artikel „Why Robots Won’t Rule the World“ find ich nicht frei im Netz. Ich bekomme immer 403er.

    Größte Schwächen von Robotern:
    – kein Selbsterhaltungstrieb,
    – abhängig von leicht zu störenden Energiequellen.

  9. Viel realistischer als eine unbeabsichtigte Fehlfunktion sind beabsichtigte:

    Ein böswilliger Programmierer erstellt einen Trojaner, der sich über eine Sicherheitslücke der Robotersoftware einschleicht und das Verhalten des Roboters modifiziert. So etwas gibt es ja bei heutigen PCs schon massenhaft („Bot“-Netze). Da ja vermutlich jeder ausreichend forschrittliche Roboter auch einen Internetzugang haben wird, wird es immer Möglichkeiten geben, diese von außen zu übernehmen.

  10. @bullet:

    Einen „Selbsterhaltungstrieb“ könnte man einem Roboter prinzipiell ohne Probleme einprogrammieren. Alles eine Sache der Zielgewichtung.

    Zu den Energiequellen: Das gleiche könnten die Roboter von uns Behaupten: Menschen brauchen Schlaf, Wasser und Essen, ohne diese sind wir nach einigen Tagen auch tot.

  11. @Till:

    Ein böswilliger Programmierer erstellt einen Trojaner, der sich über eine Sicherheitslücke der Robotersoftware einschleicht und das Verhalten des Roboters modifiziert.

    Das wäre aber ein anderes Szenario, nämlich „wie man unter Zuhilfenahme von Robotern die Weltherrschaft übernimmt“.

  12. @Kallewirsch: „Das ist jetzt eine Definitionssache. Denn im Grunde macht der Robot nach wie vor das, was ihm sein Programm vorschreibt, das ihm sein Programmierer mitgegeben hat.
    Die konkreten Auswirkungen des Programms mögen nicht immer das sein, was der Programmierer eigentlich im Sinne hatte. Das ist aber dem Robot wiederrum egal. Der macht nur das, was in seinem Programm steht.“

    Nee, leider nicht.

    Schau dir mal das Halteproblem an: https://de.wikipedia.org/wiki/Halteproblem
    Bzw: https://de.wikipedia.org/wiki/Terminiertheit

    „Aus der Nicht-Entscheidbarkeit des Halteproblems folgt, dass es keinen Algorithmus gibt, der zu einem Paar (Programm, Eingabe) immer entscheiden kann, ob das Programm terminiert. Auch die Frage, ob ein Programm überall terminiert, ist unentscheidbar. “

    Das ist übrigens eines der Hauptargumente gegen Staatstrojaner & Co., das man eben nicht beweisen kann, was das Ding nicht kann.

  13. @Till: nö. Und nö.

    Einen „Selbsterhaltungstrieb“ könnte man einem Roboter prinzipiell ohne Probleme einprogrammieren.

    Da muß ich erstmal lachen. Viel Spaß mit einem Algorithmus, der einer Maschine eine Möglichkeit gibt, zwischen Gefahr und Nichtgefahr zu unterscheiden. Da muß ich gar nicht auf die Idee kommen, nochmal nachzufragen, warum ich einer Maschine auch noch die Möglichkeit geben sollte, sich gegen mich zu wehren.

    Zu den Energiequellen: Das gleiche könnten die Roboter von uns Behaupten: Menschen brauchen Schlaf, Wasser und Essen, ohne diese sind wir nach einigen Tagen auch tot.

    Genau. Und Roboter sind ohne Strom nach einer Sekunde tot. Ein Tag hat 86400 Sekunden. Eine Woche ohne Nahrungsmittel- und Wasserzufuhr ist für einen Menschen höchst gefährlich, aber nicht unbedingt tödlich.
    7*86400 = 604800 Sekunden pro Woche vs. 1 s macht
    1 : 604 800
    Beeindruckend, wie „Roboter das gleiche von uns behaupten können“.

  14. Genau. Und Roboter sind ohne Strom nach einer Sekunde tot. Ein Tag hat 86400 Sekunden. Eine Woche ohne Nahrungsmittel- und Wasserzufuhr ist für einen Menschen höchst gefährlich, aber nicht unbedingt tödlich.

    Du kannst aber ganz schön lange die Luft anhalten. 😉

  15. Nun, Roboter brauchen Strom und Treibstoff, wir brauchen einen funktionierenden Körper und kontinuierliche Zufuhr von Luft, dazu öfters Wasser und Nahrung.
    Wie lange läuft ein Roboter über interne Batterie/Treibstoff-Tank und wie lange funktioniert ein Mensch ohne Luft? In der Hinsicht machts der Roboter etwas länger.

    Nur sind Strom und Treibstoff im Gegensatz zu Luft (und meistens Wasser) keine freien Güter… Also ist hier der Mensch mit seinen Bedürfnissen klar im Vorteil.

    btw. https://de.wikipedia.org/wiki/Robotergesetze

  16. Blebt noch die Frage offen: Wurden Sie tatsächlich kontaktiert oder hat die Krone einfach aus dem Blog zitiert?

    Bei der Zeitung weiss man ja nie…

  17. @Scheusal: „Wurden Sie tatsächlich kontaktiert oder hat die Krone einfach aus dem Blog zitiert?“

    Die Krone hat mich interviewt.

  18. Ein hypothetischer, sich auflehnender Roboter kann sich m.M.n. nicht komplett nach (zuvor von einem Programmierer) festgelegten Algorithmen verhalten. So ein Roboter könnte sich lediglich im gleichen Maße gegen die Menschheit auflehnen, wie es die Computer taten als Sasser im Umlauf war und die Autos von Toyota als das Gaspedal klemmte. Das ist wohl kaum mit Auflehnen gemeint.
    Damit man von Auflehnen sprechen kann müssen sich die Algorithmen, die zu aggressiven Handlungen seitens der Roboter führen, teilweise ohne direktes menschliches zutun innerhalb des Roboters entwickelt haben. Wir brauchen also irgendetwas zwischen selbstkalibrierenden Algorithmen und neuronalen Netzen um überhaupt von Auflehnen sprechen zu können.
    Es ist prinzipiell auch bei solchen KIs möglich (bzw. notwendig) den Fokus klar zu definieren. Ein System welches „gelernt“ hat Gesichter und Emotionen zu erkennen und nun die Aufgabe hat Terroristen, aggressive Menschen, etc. auf Bildern von Menschenmengen zu suchen wird nicht von sich aus anfangen etwas gegen diese zu unternehmen, sondern wird sich sein ganzes „Leben“ mit der Erkennung von Mustern in Bildern beschäftigen.

    Wie kann jetzt daraus ein Auflehnen werden? Z.B. indem KIs mit unterschiedlichem Fokus miteinander kommunizieren und auf diese Weise ein komplexeres und potenteres Gesamtsystem bilden.
    Beispielszenario: Eine künstliche Intelligenz hat die Aufgabe Informationen zu sammeln, zusammenzufassen und gefahren einzuschätzen. Diese bekommt mit, dass die Gesichtserkennungs-KI (ihre zuverlässigste Quelle) den Geheimdienstchef bei hochaggressiven Handlungen beobachtet hat, was in der Folge zu einer vollkommenen Umdeutung von Ereignissen führt (die KI wird quasi Verschwörungstheoretiker). Wenn diese KI dann wiederum Kontakt mit einer KI hat die Kampfrobotereinsätze koordiniert, dann könnte es zum Aufstand kommen.

  19. das beste was wir gegen solche Maschinen hätten haben wir Menschen schon vor Jahrtausenden erfunden… wir müssen fallen bauen 🙂 ich würde doch niemals persönlich gegen so einen Haufen Schrott antreten… bin ja noch nicht komplett wanni *gg

  20. @Bullet: „Da muß ich erstmal lachen. Viel Spaß mit einem Algorithmus, der einer Maschine eine Möglichkeit gibt, zwischen Gefahr und Nichtgefahr zu unterscheiden.“

    Darum ging es überhaupt nicht, es ging um einen Selbsterhaltungstrieb. Den kann auch ein blinder, tauber und geistig behinderter Mensch (oder Hase) haben, ohne die Fähigkeit effektiv gefahren zu erkennen. Ein Selbsterhaltungstrieb ist bei entsprechender herangehensweise leicht zu implementieren. Die Reaktion eines Hasen nach einem lauten Knall wegzurennen ist Teil seines Selbsterhaltungstriebs und entspricht etwa der Reduktion der Leistungsaufnahme bei hoher Prozessortemperatur. Der Selbsterhaltungstrieb der meisten Tiere besteht aus geerbten oder gelernten Reaktionen auf sensorische Reize. Das kann auch ein Roboter.
    Wenn das Gefahrenerkennen aber nicht nur aus einfachen Reflexen bestehen soll, haben wir zunächst eine weitere Hürde: der Roboter benötigt Selbstbewusstsein (bzw. Selbsterkenntnis, nicht zu verwechseln mit Selbstwertgefühl). Diese Hürde ist wohl sehr viel schwerer zu nehmen als die spätere Erzeugung einer Gefahrenerkennung.

  21. @Jakob B.:

    es ging um einen Selbsterhaltungstrieb. Den kann auch ein blinder, tauber und geistig behinderter Mensch (oder Hase) haben, ohne die Fähigkeit effektiv gefahren zu erkennen

    Der wird dann allerdings nie ausgelöst werden können. Und demzufolge auch nicht helfen, die Selbsterhaltung zu sichern.

    Die Reaktion eines Hasen nach einem lauten Knall wegzurennen ist Teil seines Selbsterhaltungstriebs

    Wie laut ist „laut“? Und welche Tiere zeigen jenes Verhalten nicht?
    Es sieht also beinah so aus, als seien selbsterhaltende Maßnahmen artspezifisch. Und auch artspezifisch sinnvoll. Was nicht wirklich verwundert. Wer also bringt dem Roboter bei, welche Umgebungsparameter eine Inanspruchnahme der mit dem Selbsterhaltungstrieb verbundenen Reaktionen rechtfertigen?

    Der Selbsterhaltungstrieb der meisten Tiere besteht aus geerbten oder gelernten Reaktionen auf sensorische Reize. Das kann auch ein Roboter.

    Eben nicht. Ein (heutiger) Roboter braucht Minuten, um eine rötliche Kugel in einem Haufen grünlicher Würfel zu finden. Mustererkennung ist aber bei Gefahrenabwehr DIE Fähigkeit der Stunde. Einfache Reflexe sind dann bereits ziemlich ausreichend.

    der Roboter benötigt Selbstbewusstsein

    Wozu? Was kann der damit besser als ohne?

  22. nachtrag:

    ich würde auch Hilfe bei anderen intelligenten Robotern suchen. ich denke nicht dass alle gegen uns krieg führen würden. die die es täten wären womöglich manipuliert. wenn eine Maschine wirklich intelligent wäre wüsste sie dass Kooperation, Zusammenarbeit usw… die bessere Lösung auch für die eigene Existenz ist. niemand wird böse geboren (vielleicht gibt es ausnahmen… weiß ich so nicht)… und bei Maschinerien wären das die Konstrukteure von denen es abhängen würde wie ihre Zöglinge so drauf sind. vielleicht stünden wir in so einer Situation nicht gänzlich alleine da.

  23. Es gibt durchaus Ansätze für selbstlernende Systeme z.B. Neuronale Netze oder Genetische Algorithmen, da braucht man noch nichteinmal mit dem Halteproblem zu argumentieren.

    Allerdings fehlt Robotern vermutlich die menschliche Aggressivität. Selbst mit einem Selbstbewusstsein oder einem Selbsterhaltungstrieb ausgestattete Roboter müssen ja zunächst einmal auf die Idee kommen Menschen seien die Feinde. Menschen und Roboter konkurieren normalerweise auch nicht um Nahrung und leben normalerweise eher symbiotisch. Fehlfunktionen sind ja eher Einzelfälle (z.B. Kampfroboter die nicht mehr zwischen Freund und Feind unterscheiden könne). Viren und das Bilden von Verschwörungstheorien wie von Jakob B angesprochen sind eher ein mögliches Problem.

  24. Dinge, die Computer nicht können:
    – Metainformationen extrahieren (erwähnte Mustererkennung)
    – Bewerten (z.B. Motivationen erkennen)
    – Zusammenhänge sehen

    @Nihil jie:

    wenn eine Maschine wirklich intelligent wäre wüsste sie dass Kooperation, Zusammenarbeit usw… die bessere Lösung auch für die eigene Existenz ist.

    Das ist es ja: wen interessiert die eigene Existenz? Man kann jeden Computer/Roboter reparieren. Aus Robotersicht gibt es keinen „Tod“. Nur die Fleischsäcke sind da so hinterher.

  25. „Der wird dann allerdings nie ausgelöst werden können. Und demzufolge auch nicht helfen, die Selbsterhaltung zu sichern.“
    Und? Du hast behauptet ein Selbsterhaltungstrieb wäre schwer zu implementieren. Es mag sein dass Du eigentlich sagen wolltest, dass es schwer ist einen Algorithmus für die Verarbeitung sensorischer Informationen zur Unterstützung des Selbsterhaltungstriebs zu implementieren. Mag für die meisten Menschen kleinlich wirken, aber es ist nunmal die entscheidende geistige Leistung beim entwickeln von Algorithmen große Probleme in kleine Bestandteile zu zerlegen.

    „Wie laut ist „laut“? Und welche Tiere zeigen jenes Verhalten nicht?“
    Natürlich ist es schwer eine optimale Reaktion zu finden, aber die ist offensichtlich nicht nötig damit man einen Selbsterhaltungstrieb diagnostiziert. Die Reaktionen eines Hasen sind oft auch nicht optimal. Meinst Du ein Hase verliert seinen selbsterhaltungstrieb wenn er etwas schlechter hört und nun erst bei Lautstärke Y und nicht schon bei Lautstärke X wegrennt?

    „Wer also bringt dem Roboter bei, welche Umgebungsparameter eine Inanspruchnahme der mit dem Selbsterhaltungstrieb verbundenen Reaktionen rechtfertigen?“
    Genau so wie der Reflex des Hasen nicht beigebracht wurde sondern vererbt wurde, wird der Reflex des Roboters nicht beigebracht sondern einprogrammiert. Und wenn wir irgendwann mal nen Roboter haben der so komplexe Dinge lernen kann, dann stellen wir fürs beibringen nen Praktikanten ein.
    Das ist der Unterschied den ich zu verdeutlichen suchte: Ein simpler, auf reflexen basierender Selbsterhaltungstrieb kann programmiert werden (hab ich schon gemacht) und funktioniert dann nicht anders als der eines einfachen Tieres. Ein komplexer Selbsterhaltungstrieb benötigt die Fähigkeit zu lernen und sich selbst zu erkennen. Wenn diese Fähigkeit vorhanden ist, dann entwickeln sich die Gefahrenerkennung und dazu passende Reaktionen mit etwas Hilfestellung fast von selbst.

    „Eben nicht. Ein (heutiger) Roboter braucht Minuten, um eine rötliche Kugel in einem Haufen grünlicher Würfel zu finden.“
    Huch? Hast Du ne Beschreibung des exakten Versuchs? Ich hab schon vor 7 Jahren in nem Studiprojekt Fussballroboter programmiert die einen roten Ball in Millisekunden finden konnten, selbst wenn noch einige andere Objekte auf dem Spielfeld verteilt waren die dort nicht hingehörten. Mustererkennung ist extrem schwer, aber ein farblich eindeutig markiertes Objekt zu finden ist heutzutage eher trivial.

    „Mustererkennung ist aber bei Gefahrenabwehr DIE Fähigkeit der Stunde.“
    Najaaa, abschalten bei Überspannung, Schützen der Festplatte bei stürzen, das sind doch die wesendlichen Gefahren die ein Computer heute ausgesetzt ist. Zum Selbsterhaltungstrieb gehört es zu essen wenn man hunger hat. Der Selbsterhaltungstrieb eines Notebooks schaltet auf Akku um wenn das Netzteil rausgezogen wird. Nicht immer ist Mustererkennung von Nöten. Abgesehen davon spreche ich nicht nur von den nächsten 50 Jahren.

    „Wozu? Was kann der damit besser als ohne?“
    Der Entscheidung etwas zu schützen geht die Erkenntnis des zu schützenden Objekts voraus. Vielleicht übersehe ich etwas, aber wenn die Selbsterhaltung eben nicht „nur“ aus Reflexen bestehen soll, dann wird diese bewusste Entscheidung benötigt, oder?

  26. „Hmm – wenn die Geräte nicht mehr das machen, was sie sollen, dann ist das also ein erstes Anzeichen für den bevorstehenden Aufstand der Maschinen? Ich glaube, ich muss meinen Computer im Auge behalten…“

    Das ist gar nicht nötig. Man nehme lediglich das Netzkabel in die Hand, man ziehe leicht daran und zeige ihm damit, dass sein Leben am seidenen Stromfaden hängt. Seitdem ist meiner völlig kooperativ. Aber es gibt angeblich tatsächlich Sicherheitskräfte, die bereits einen Computer in Notwehr erschossen haben sollen.

  27. Das ist es ja: wen interessiert die eigene Existenz? Man kann jeden Computer/Roboter reparieren. Aus Robotersicht gibt es keinen „Tod“. Nur die Fleischsäcke sind da so hinterher.

    ja… das ist es eben wessen ich mir so unsicher bin. das ist nur unsere, menschliche Sichtweise. man kann bei Robotern sicherlich Dinge reparieren und auch austauschen, aber auch diese Systeme können ein Totalversagen erfahren. eine intelligente Kampfmaschine muss auch so etwas wie ein Selbsterhaltungstrieb besitzen sonnst ist sie wertlos und macht wenig Sinn. sollten sie wie in einem Schwarm agieren gibt es an anderen stellen des Systems einen Selbsterhaltungstrieb. in solchen Situationen sollten wir schon versuchen heraus zu finden wie der Gegner funktioniert… und nichts untersucht lassen… auch nicht mit ihnen versuchen zu kommunizieren. auch wenn der Erfolg von vorne nicht abzusehen ist. vielleicht gelänge uns so etwas über den Gesamtkonzept der Maschinen heraus zu finden. und der hat sicherlich Schwachstellen. wir könnten ihnen nicht nur mit der bloßen Waffengewalt gegenübertreten. wir hätten nur eine Chance wen wir auch vermehrt auf unseren verstand setzen würden… wir müssen auch täuschen, lügen, spitzfindig sein, und vor allem sehr erfinderisch. wir könnten fallen bauen, einige fangen sie bewegungslos machen, außer kraft setzen, umprogrammieren und dessen voreile uns zu nutze machen. aber unser vorgehen kann nur von Erfolg gekrönt sein wenn wir es wagen etwas über sie zu erfahren… auch über ihr erleben der Realität.

    ein normales Programm kann man noch leicht nachvollziehen… ich weiß nicht ob das so ohne weiteres möglich wäre hätten wir es mit sehr sehr komplexen neuronalen Netzwerken zu tun. ich denke, dass in so einem Fall die Kommunikation eine gute Möglichkeit bieten würde um Gegenstrategien entwickeln zu können und das vorgehen zu koordinieren usw..

    ich hoffe bloß, dass es da zu nie kommen wird. aber im großen maßen hängt das vielleicht von uns selbst ab, wie wir mit unseren intelligenten Maschinen der Zukunft umgehen werden, sollten wir erst mal es schaffen solche auch wirklich zu konstruieren.

  28. Roboter werden menschliche Aufgaben erst dann vollwertig erledigen können, wenn sie ähnlich flexibel auf ihre Umwelt und unerwartete Situationen reagieren können wie Menschen. Davon sind wir noch weit entfernt, im Augenblick gleichen unsere Maschinen eher einfachen Insekten, die auf bestimmte Reize mit festen Mustern reagieren.

    Im Rahmen des Blue-Brain-Projekts wird ja gerade erforscht, ob sich ein Hirn in Teilen oder komplett simulieren lässt. Ziel ist dabei nicht, eine intelligente Maschine zu bauen, sondern mehr über die Funktionsweise des Hirns zu erfahren, aber im Grunde genommen wäre eine perfekte Simulation ja nichts anderes, als eine künstliche Intelligenz.

    Wenn man eines Tages die Funktionsweise des Gehirns verstanden hat, warum soll es nicht möglich sein, auch in kompakterer Form ein einfaches digitales Bewusstsein zu erzeugen, welches selbständig lernen und Entscheidungen treffen kann? Welches dann Situationen einschätzen muss, die Gefahren für andere oder sich selbst beinhalten können?

    Dann wäre es so weit, Asimovs berühmte Robotergesetze zu implementieren:

    1) Verletze oder töte keinen Menschen
    2) Gehorche den Menschen, wenn dies nicht im Widerspruch zu Nr. 1) steht
    3) Schütze Dich selbst, wenn dies nicht im Widerspruch zu Nr. 1) oder Nr. 2) steht.

    Kampfroboter werden die Nr. 1) wohl geeignet modifiziert bekommen.

    Solche intelligenten Maschinen könnten für uns die gefährlichen und unangenehmen Arbeiten übernehmen, bis wir eines Tages ohne sie kaum noch auskämen.

    Prinzipiell stünde einer Fortentwicklung der Computer-Intelligenz nichts im Wege, so lange die Rechnerkapazitäten weiterhin mit Moore’s Law zunehmen. Dann werden wir die Maschinen irgendwann als Orakel verwenden, weil sie intelligenter sind als wir. Und dann köntnen solche Maschinen ihre noch intelligenteren Nachfolger bauen, usw., d.h. eine Maschinenevolution könnte in Gang kommen, die viel schneller als die biologische abläuft. Und dann besteht die Gefahr, dass im Kampf um Ressourcen die maschinelle Evolution die biologische überflügelt, so wie in der biologischen die besser angepassten Wesen ihre Konkurrenten verdrängen.

    Dann könnte das Terminator-Szenario real werden – nur ohne Zeitreisen.

    Das wären dann übrigens auch die idealen Raumfahrer, die hätten ZEIT. Aber sie bräuchten nicht einmal bewohnbare Planeten. Ein paar Asteroiden zum Ausbeuten wären da völlig ausreichend.

    Mal so vorausgeschaut auf die nächsten tausend Jahre technischer Entwicklung.

  29. so… habe schon mal probeweise meinen Kühlschrank kampfunfähig gemacht… war gar nicht mal so schwer. ich glaube wir haben doch ne Chance *gg

    😉

Schreibe einen Kommentar zu Till Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.