adverser Angriff (en.: adversarial attack)

Ein adverser Angriff ist der gezielte Versuch, mit Hilfe von adversen Eingaben (adversarial examples) Fehler zu verursachen. Insbesondere künstliche neuronale Netze gelten als besonders anfällig für diese Art von Angriffen.

ISO/IEC TR 29119-11:2020 deliberate use of adversarial examples (3.1.7) to cause a ML model (3.1.46) to fail

ISTQB - CTAI Syllabus The deliberate use of adversarial examples to cause an ML model to fail

Quelle: AI-Glossary.org (https://www.ai-glossary.org), Lizenz d. Definitionstextes (ausschl. Norm-Referenzen): CC BY-SA 4.0, abgerufen: 2024-11-21

BibTeX-Information

@misc{aiglossary_adverserAngriff_18g4v37,
author = {{AI-Glossary.org}},
title = {{adverser Angriff}},
howpublished = "https://www.ai-glossary.org/index.php?p=18g4v37\&l=de",
year = "2024",
note = "online, abgerufen: 2024-11-21" }