Adversariale Robustheit Neuronaler Netze (PDF)
Verteidigungen gegen Vermeidungsangriffe zur Testzeit
Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Veränderungen an der Eingabe vornehmen. Obwohl diese Änderungen für den Menschen kaum wahrnehmbar sind, ändert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen...
sofort als Download lieferbar
eBook (pdf)
Fr. 33.00
inkl. MwSt.
- Kreditkarte, Paypal, Rechnung
- Kostenloser tolino webreader
Produktdetails
Produktinformationen zu „Adversariale Robustheit Neuronaler Netze (PDF)“
Gelernte Klassifikationsverfahren sind nicht sicher, wenn Angreifer gezielte Veränderungen an der Eingabe vornehmen. Obwohl diese Änderungen für den Menschen kaum wahrnehmbar sind, ändert sich die Klassifikation. Um gelernte Modelle in sicherheitskritischen Bereichen anwenden zu können, ist es erforderlich, Methoden zu entwickeln, die Robustheit gegen adversariale Angriffe gewährleisten können. Hier wird eine Übersicht über verschiedene Anwendungsfälle, Angriffe, die daraus entstehenden Problemstellungen, Ansätze zur Verteidigung sowie Gefahren bei der Evaluation dieser gegeben und die Notwendigkeit korrekter Verfahren aufgezeigt.
Bibliographische Angaben
- Autor: Bijan Kianoush Riesenberg
- 2020, 1. Auflage, 120 Seiten, Deutsch
- Verlag: Diplomica Verlag
- ISBN-10: 3961163960
- ISBN-13: 9783961163960
- Erscheinungsdatum: 29.12.2020
Abhängig von Bildschirmgrösse und eingestellter Schriftgrösse kann die Seitenzahl auf Ihrem Lesegerät variieren.
eBook Informationen
- Dateiformat: PDF
- Grösse: 2.11 MB
- Ohne Kopierschutz
Kommentar zu "Adversariale Robustheit Neuronaler Netze"
0 Gebrauchte Artikel zu „Adversariale Robustheit Neuronaler Netze“
Zustand | Preis | Porto | Zahlung | Verkäufer | Rating |
---|
Schreiben Sie einen Kommentar zu "Adversariale Robustheit Neuronaler Netze".
Kommentar verfassen