Gibt es Roboter, die allein denken können?

Melanie aus Wesel möchte wissen, ob es schon vollkommen selbstständige Roboter gibt.

Die Forschung in dieser Richtung steckt noch in den Kinderschuhen, obwohl "Künstliche Intelligenz", wie man das nennt, immer wichtiger wird. Noch benötigen Roboter Befehle, die von Menschen programmiert werden. Doch es gibt schon Roboter, die aus ihren eigenen Fehlern lernen, das heißt ihre eigenen Aktionen in gewisser Weise steuern und bestimmte Fehler nicht noch mal machen, ohne dass das programmiert werden muss.

Weil es absehbar ist, dass Roboter irgendwann in der Zukunft alleine Entscheidungen treffen müssen (zum Beispiel bei Weltraumeinsätzen oder in unwegsamen, menschenfeindlichen Umgebungen), hat der Wissenschaftler und Schriftsteller Isaac Asimov schon in den Fünfziger Jahren die "Robotergesetze" entworfen. Das wichtigste dieser Gesetze lautet, dass ein Roboter niemals einen Menschen angreifen darf.

Wenn Roboter "denken" ist das jedoch nicht mit dem menschlichen Bewusstsein vergleichbar. Computer und Roboter sind programmiert und können demnach immer nur so schlau sein, wie der jeweilige Mensch, der sie programmiert hat.

Hinweis: Im Archiv wurden alle Bilder und Links entfernt