- Schnelle Lieferzeiten
- Kostenfreie Lieferung innerhalb Deutschlands
- Sicheres Einkaufen mit SSL- Verschlüsselung
Gibt es Roboter, die allein denken können?
Die Forschung in dieser Richung steckt noch in den Kinderschuhen, obwohl „Künstliche Intelligenz“, wie man das nennt, immer wichtiger wird. Noch benötigen Roboter Befehle, die von Menschen programmiert werden. Doch gibt es schon Roboter, die aus ihren eigenen Fehlern lernen, das heißt ihre eigenen Aktionen in gewisser Weise steuern und bestimmte Fehler nicht noch einmal machen, ohne dass das programmiert werden muss. Weil es absehbar ist, dass Roboter irgendwann in der Zukunft alleine Entscheidungen treffen müssen (zum Beispiel bei Weltraumeinsätzen oder in unwegsamen, menschenfeindlichen Umgebungen), hat der Wissenschaftler und Schriftsteller Isaac Asimov schon in den 1950er Jahren die „Robotergesetze“ für selbständige Roboter entworfen. Das wichtigste Gesetz besagt, dass ein Roboter niemals einem Menschen Schaden zufügen darf. Wenn Roboter „denken“ ist das nicht mit menschlichem Beweusstsein vergleichbar. Computer und Roboter sind programmiert und können demnach immer nur so schlau sein, wie der jeweilige Mensch, der sie entwickelt hat.