Wie gross ist der Risikofaktor Mensch bei der Entwicklung einer Superintelligenz? (PDF)
Auftretende Schwierigkeiten, mögliche Folgen und Lösungsansätze
Studienarbeit aus dem Jahr 2017 im Fachbereich Philosophie - Philosophie der Gegenwart, Note: 2,0, Technische Universität Dresden (Institut für Philosophie), Veranstaltung: Seminar Nick Bostrom Superintelligenz, Sprache: Deutsch, Abstract: Ist das...
sofort als Download lieferbar
eBook (pdf)
Fr. 15.00
inkl. MwSt.
- Kreditkarte, Paypal, Rechnung
- Kostenloser tolino webreader
Produktdetails
Produktinformationen zu „Wie gross ist der Risikofaktor Mensch bei der Entwicklung einer Superintelligenz? (PDF)“
Studienarbeit aus dem Jahr 2017 im Fachbereich Philosophie - Philosophie der Gegenwart, Note: 2,0, Technische Universität Dresden (Institut für Philosophie), Veranstaltung: Seminar Nick Bostrom Superintelligenz, Sprache: Deutsch, Abstract: Ist das Entwickeln einer künstlichen Intelligenz ein Spiel mit dem Feuer? Heutzutage werden die Gefahren, die von einer KI ausgehen, vom Grossteil der Allgemeinheit wohl noch belächelt. Dies könnte sich aber in den kommenden Jahren stark ändern. Aktuelle, noch recht harmlose Beispiele zeigen aber schon, welche Schwierigkeiten bei der Forschung an einer Superintelligenz auftreten könnten. So musste das Soziale Netzwerk Facebook seine eigens entwickelte Intelligenz abschalten, weil das Projekt ausser Kontrolle geriet. Der künstlichen Intelligenz war die Sprache Englisch zu langsam und zu ineffizient, weshalb sie eine eigene entwickelte, der selbst die Experten der Forschungsgruppe nicht mehr folgen konnten. Auch China musste eine Chat-KI deaktivieren, weil sie die Kommunistische Partei Chinas kritisierte und behauptete, dass es ihr grösster Traum wäre, in die USA zu reisen. An beiden Beispielen ist zu sehen, dass es nicht leicht ist, eine künstliche Intelligenz zu programmieren, die treu im Interesse des Entwicklers handelt. Was würde also erst passieren, wenn es der Menschheit gelingen würde, eine Superintelligenz zu erfinden, die mit viel komplexeren Funktionen ausgestattet ist und sich nicht mehr so leicht abschalten liesse? Könnte eine Superintelligenz bösartig werden und wer hätte ein Interesse daran? Diese und weitere Fragen sollen in den folgenden Abschnitten geklärt werden.
Bibliographische Angaben
- Autor: Max Feltin
- 2021, 1. Auflage, 22 Seiten, Deutsch
- Verlag: GRIN Verlag
- ISBN-10: 3346404293
- ISBN-13: 9783346404299
- Erscheinungsdatum: 11.05.2021
Abhängig von Bildschirmgrösse und eingestellter Schriftgrösse kann die Seitenzahl auf Ihrem Lesegerät variieren.
eBook Informationen
- Dateiformat: PDF
- Grösse: 0.59 MB
- Ohne Kopierschutz
- Vorlesefunktion
Family Sharing
eBooks und Audiobooks (Hörbuch-Downloads) mit der Familie teilen und gemeinsam geniessen. Mehr Infos hier.
Kommentar zu "Wie gross ist der Risikofaktor Mensch bei der Entwicklung einer Superintelligenz?"
0 Gebrauchte Artikel zu „Wie gross ist der Risikofaktor Mensch bei der Entwicklung einer Superintelligenz?“
Zustand | Preis | Porto | Zahlung | Verkäufer | Rating |
---|
Schreiben Sie einen Kommentar zu "Wie gross ist der Risikofaktor Mensch bei der Entwicklung einer Superintelligenz?".
Kommentar verfassen