Algorithmen, Kampfroboter und Psychosen. Hintergründe und Gefahren artifizieller Intelligenz - Rekonstruktion psychotischer Technologie
Die Artifizielle Intelligenz (AI) wird zum festen Bestandteil des menschlichen Lebens, kaum ein Bereich bleibt vom Einzug der algorithmisch gesteuerten Maschinen verschont. Heute scheint die Tatsache unbezweifelbar, dass menschliches Leben in etwa drei...
Voraussichtlich lieferbar in 3 Tag(en)
versandkostenfrei
Buch (Kartoniert)
Fr. 28.00
inkl. MwSt.
- Kreditkarte, Paypal, Rechnungskauf
- 30 Tage Widerrufsrecht
Produktdetails
Produktinformationen zu „Algorithmen, Kampfroboter und Psychosen. Hintergründe und Gefahren artifizieller Intelligenz - Rekonstruktion psychotischer Technologie “
Klappentext zu „Algorithmen, Kampfroboter und Psychosen. Hintergründe und Gefahren artifizieller Intelligenz - Rekonstruktion psychotischer Technologie “
Die Artifizielle Intelligenz (AI) wird zum festen Bestandteil des menschlichen Lebens, kaum ein Bereich bleibt vom Einzug der algorithmisch gesteuerten Maschinen verschont. Heute scheint die Tatsache unbezweifelbar, dass menschliches Leben in etwa drei Jahrzehnten massgeblich von der AI abhängig sein wird - mehr als es heute bereits der Fall ist. Schon bei den Arbeitsprozessen heutiger Unternehmen ist die Anwendung der AI kaum wegzudenken. Das vorliegende Buch stellt drei Bereiche vor, anhand derer dies veranschaulicht wird. Doch auch wenn die AI viele Vorteile hat, darf sich der Mensch nicht derart von ihr abhängig machen, dass es zum Schwund seiner eigenen Kompetenzen, bis hin zur völligen Abhängigkeit kommt. Es geht aber noch eine weitaus schlimmere Gefahr von der AI aus: da Handlungsanweisungen der Maschinen immer sehr engmaschig und unflexibel sind, kann die heilsbringende Technologie leicht zur psychotischen Gefahr mutieren, wenn wir zu naiv und unüberlegt an das Thema herangehen.
Lese-Probe zu „Algorithmen, Kampfroboter und Psychosen. Hintergründe und Gefahren artifizieller Intelligenz - Rekonstruktion psychotischer Technologie “
Textprobe:Kapitel 3.4.: Letale Autonome Waffensysteme (LAWS):
Im Jahr 2001 begann der Krieg gegen den internationalen Terror. In dieser Zeit traten die Kampfdrohnen auf die Szene und begannen sogleich, gezielte Tötungsangriffe zu fliegen. Es dürfte keine grosse Verwunderung auslösen, dass inzwischen der Rüstungswettlauf technologisch weiter vorangeschritten ist und auch schon einen konkreten Namen hat: Letale Autonome Waffensysteme, kurz LAWS. Die Drohnen bieten hier eine erste Basis, nicht zuletzt deshalb, da das Fliegen leicht zu automatisieren ist. Dazu kommt auch der weitere wesentliche Vorteil, dass bei solchen Flugeinsätzen auf militärisches Personal verzichtet werden kann und Menschen keiner Gefahr ausgesetzt sind. Ein weiterer Vorteil sind die deutlich längeren Flugzeiten, die nicht unterbrochen werden müssen, da die Druckbelastung z.B. den Piloten schadet. Das sind klare Vorteile, welche die Rüstungsindustrie auch auf andere Einsatzkontexte übertragen möchte. Und es zeichnen sich tatsächlich Trends ab, wie robotische Land- und Wassersysteme. Diese sind technisch noch nicht ganz ausgereift, da unterschiedliche Beschaffenheiten des Terrains hohe technische Erwartungen an die einzelnen robotischen Systeme stellen. Neben den technischen Herausforderungen, die ein schwieriges Gelände mit sich bringt, kommen noch Kommunikationsprobleme zwischen der Maschine und menschlichen Personal dazu. Im Moment wird die Kommunikation noch vom Boden aus vollzogen. Die Fernsteuerungssysteme können gestört oder manipuliert werden; dazu kommt, dass extrem grosse Datenmengen verarbeitet werden müssen, die jetzt schon von militärischen Satelliten kaum bewältigt werden, sodass auf kommerzielle Satellitenanbieter zurückgegriffen werden muss. Was passiert mit den gesammelten Daten, die in die Hände kommerzieller Anbieter landen? Sollte die Wirtschaft mit operativ-militärischen Zielen verschränkt werden? Neben diesen Problemen kommt es noch zu einem weiteren: bei hohen Funkdistanzen
... mehr
kommt es bei ferngesteuerten Systemen zu Verzögerungen. Das macht die Echtzeit-Operation natürlich unmöglich.
All diese genannten Probleme spornen die innovativen Forscher an, nach Lösungen zu suchen, und diese Lösungssuche hat in den vergangenen Jahren einen Weg zur Technisierung der Waffensysteme vorbereitet. Operationen sollen effizienter, präziser und mit deutlich minimierten Reaktionszeiten durchgeführt werden - vom Wegfall möglicher menschlicher Verluste innerhalb der eigenen Reihen ganz zu schweigen. Es sind aber nicht nur die eigenen Verluste, die mit autonomen Waffensystemen vermieden werden, sondern auch die menschlichen Schwächen, die eine Operation gefährden könnten. Man denke z.B. an psychisch belastende Momente in einer Gefechtssituation, oder man denke an den Aspekt der begrenzten Ausdauer menschlicher Truppen und, man denke auch an Fehlentscheidungen, die das Gelingen einer Operation signifikant in Gefahr bringen könnten. All diese Vorteile gegenüber bemannten Systemen führen dazu, dass diese Technologien fortentwickelt und optimiert werden. Doch es liegt auf der Hand, dass diese vielversprechenden Möglichkeiten ebenso neue und schwerwiegende Probleme mit sich führen. Ein wesentliches Problem ist schon die Einhaltung des ersten Zusatzprotokolls der Genfer Konventionen, welches drei Punkte vorsieht: 1) die Fähigkeit zur Unterscheidung von Soldaten und Zivilisten; 2) der verhältnismässige Einsatz von Gewalt und 3) die Belangbarkeit der Einsatzverantwortlichen. Doch wer genau soll hier im Fall der Fälle zur Verantwortung gezogen werden, wenn es schon bei den bewaffneten Drohnen regelmässig scheitert zu rekonstruieren, wer diese entwickelt und kauft? Sucht man nach einer Definition autonomer Waffensysteme, so kann man folgende anführen: ""Autonomie" bedeutet letztlich die Fähigkeit eines Computerprogramms, durch selbständige Selektion und Auswertung von Daten auf eine sich verändernde Umwelt zu reagieren.
All diese genannten Probleme spornen die innovativen Forscher an, nach Lösungen zu suchen, und diese Lösungssuche hat in den vergangenen Jahren einen Weg zur Technisierung der Waffensysteme vorbereitet. Operationen sollen effizienter, präziser und mit deutlich minimierten Reaktionszeiten durchgeführt werden - vom Wegfall möglicher menschlicher Verluste innerhalb der eigenen Reihen ganz zu schweigen. Es sind aber nicht nur die eigenen Verluste, die mit autonomen Waffensystemen vermieden werden, sondern auch die menschlichen Schwächen, die eine Operation gefährden könnten. Man denke z.B. an psychisch belastende Momente in einer Gefechtssituation, oder man denke an den Aspekt der begrenzten Ausdauer menschlicher Truppen und, man denke auch an Fehlentscheidungen, die das Gelingen einer Operation signifikant in Gefahr bringen könnten. All diese Vorteile gegenüber bemannten Systemen führen dazu, dass diese Technologien fortentwickelt und optimiert werden. Doch es liegt auf der Hand, dass diese vielversprechenden Möglichkeiten ebenso neue und schwerwiegende Probleme mit sich führen. Ein wesentliches Problem ist schon die Einhaltung des ersten Zusatzprotokolls der Genfer Konventionen, welches drei Punkte vorsieht: 1) die Fähigkeit zur Unterscheidung von Soldaten und Zivilisten; 2) der verhältnismässige Einsatz von Gewalt und 3) die Belangbarkeit der Einsatzverantwortlichen. Doch wer genau soll hier im Fall der Fälle zur Verantwortung gezogen werden, wenn es schon bei den bewaffneten Drohnen regelmässig scheitert zu rekonstruieren, wer diese entwickelt und kauft? Sucht man nach einer Definition autonomer Waffensysteme, so kann man folgende anführen: ""Autonomie" bedeutet letztlich die Fähigkeit eines Computerprogramms, durch selbständige Selektion und Auswertung von Daten auf eine sich verändernde Umwelt zu reagieren.
... weniger
Autoren-Porträt von Denis Bobanovic
Denis Bobanovic wurde 1979 in München geboren. Er studierte Philosophie (B.A. an der Hochschule für Philosophie und M.A. an der LMU) und Religionspädagogik (Dipl.-Religionspaed. an der Universität Eichstätt). Derzeit forscht er im Kontext eines philosophischen Promotionsstudiums an Fragestellungen zur kosmologischen Metaphysik und den psychoanalytisch-philosophischen Effekten, die durch die Sprache, die sogenannte 'symbolische Ordnung', hervorgebracht werden. Im Rahmen dieser Forschungsfelder weckte auch das Thema der AI sein Interesse.Des Autors philosophisches Denken ist weitestgehend durch Whiteheads und Lacans Theorien beeinflusst. Beruflich wirkt er als Fachlehrer an Münchner Mittelschulen und unterrichtet die Jahrgangsstufen 5 bis 10.
Bibliographische Angaben
- Autor: Denis Bobanovic
- 2019, 80 Seiten, 17 Abbildungen, Masse: 15,5 x 0,8 cm, Kartoniert (TB), Deutsch
- Verlag: Diplomica
- ISBN-10: 3961467226
- ISBN-13: 9783961467228
Kommentar zu "Algorithmen, Kampfroboter und Psychosen. Hintergründe und Gefahren artifizieller Intelligenz - Rekonstruktion psychotischer Technologie"
0 Gebrauchte Artikel zu „Algorithmen, Kampfroboter und Psychosen. Hintergründe und Gefahren artifizieller Intelligenz - Rekonstruktion psychotischer Technologie“
Zustand | Preis | Porto | Zahlung | Verkäufer | Rating |
---|
Schreiben Sie einen Kommentar zu "Algorithmen, Kampfroboter und Psychosen. Hintergründe und Gefahren artifizieller Intelligenz - Rekonstruktion psychotischer Technologie".
Kommentar verfassen