adverser Angriff ◆ adversarial attack
Ein adverser Angriff ist der gezielte Versuch, mit Hilfe von adversen Eingaben (adversarial examples) Fehler zu verursachen. Insbesondere künstliche neuronale Netze gelten als besonders anfällig für diese Art von Angriffen.
ISO/IEC TR 29119-11:2020 deliberate use of adversarial examples (3.1.7) to cause a ML model (3.1.46) to fail
ISTQB - CTAI Syllabus The deliberate use of adversarial examples to cause an ML model to fail