Skip to main content
Log in

Karla Markert, Konstantin Böttinger

Robuste Lernverfahren

Einblicke und Ausblicke

  • Schwerpunkt
  • Published:
Datenschutz und Datensicherheit - DuD Aims and scope Submit manuscript

Zusammenfassung

Methoden der sogenannten künstlichen Intelligenz durchdringen zunehmend alle Lebensbereiche der modernen Gesellschaft. Künstliche Intelligenz beschränkt sich dabei nicht mehr nur auf das reine Auswerten von Daten, sondern wird vermehrt auch in kritische Entscheidungsprozesse miteinbezogen. Eine solche Technologie, die wie kaum eine andere einen gesellschaftlichen Umbruch einleitet und unseren Lebensalltag in Zukunft noch entscheidender prägen wird, bedarf einer angemessenen Absicherung. Im Folgenden beleuchten wir wichtige Aspekte der Robustheit von Deep Learning und zeigen Entwicklungen in der aktuellen Forschung auf. Insbesondere besprechen wir die Herausforderungen der Formulierung eines einheitlichen Robustheitsbegriffs.

This is a preview of subscription content, log in via an institution to check access.

Access this article

Price excludes VAT (USA)
Tax calculation will be finalised during checkout.

Instant access to the full article PDF.

Literatur

  1. Y. Gong und C. Poellabauer, „Protecting voice controlled systems using sound source identification based on acoustic cues,“ in 27th International Conference on Computer Communication and Networks (ICCCN), 2018.

  2. D. Silver, A. Huang, C. Maddison, A. Guez, L. Sifre, G. Van Den Driessche, J. Schrittwieser, I. Antonoglou, V. Panneershelvam und M. Lanctot, „Mastering the game of Go with deep neural networks and tree search,“ in Nature, Vol. 529 , 2016.

  3. D. Silver, T. Hubert, J. Schrittwieser, I. Antonoglou, M. Lai, A. Guez, M. Lanctot, L. Sifre, D. Kumaran und T. Graepel, „A general reinforcement learning algorithm that masters chess, shogi, and Go through self-play,“ in Science, Vol. 362, 2018.

  4. I. Masi, Y. Wu, T. Hassner und P. Natarajan, „Deep face recognition: A survey,“ in 31st SIBGRAPI conference on graphics, patterns and images (SIBGRAPI), 2018.

  5. A. B. Nassif, I. Shahin, I. Attili, M. Azzeh und K. Shaalan, „Speech recognition using deep neural networks: A systematic review,“ in IEEE Access, 2019.

  6. H. Abdullah, K. Warren, V. Bindschaedler, N. Papernot und P. ). Traynor, „ SoK: The Faults in our ASRs: An Overview of Attacks against Automatic Speech Recognition and Speaker Identification Systems,“ in arXiv e-prints, 2020.

  7. L. Schönherr, T. Eisenhofer, S. Zeiler, T. Holz und D. Kolossa, „Imperio: Robust over-the-air adversarial examples for automatic speech recognition systems,“ in Annual Computer Security Applications Conference, 2020.

  8. H. Xiao, B. Biggio, B. Nelson, H. Xiao, C. Eckert und F. Roli, „Support vector machines under adversarial label contamination,“ in Neurocomputing, Vol. 160, 2015.

  9. Q. Liu, P. Li, W. Zhao, W. Cai, S. Yu und V. C. Leung, „A survey on security threats and defensive techniques of machine,“ IEEE access, Bd. 6, pp. 12103-12117, 2018.

    Article  Google Scholar 

  10. N. Carlini, A. Athalye, N. Papernot, W. Brendel, J. Rauber, D. Tsipras, I. Goodfellow, A. Madry und A. Kurakin, „On Evaluating Adversarial Robustness,“ in arXiv:1902.06705 [cs], 2019.

  11. C. Wagner, On Evaluating Adversarial Robustness, C. o. A. M. L. i. I. S. (CAMLIS), Hrsg., 2019.

  12. P. Devanbu, M. Dwyer, S. Elbaum, M. Lowry, K. Moran, D. Poshyvanyk, B. Ray, R. Singh und X. Zhang, „Deep Learning & Software En-gineering: State of Research and Future Directions,“ in arXiv:2009.08525 [cs], 2020.

  13. G. Ermentrout und D. Terman, Mathematical Foundations of Neuroscience, Interdisciplinary Applied Mathematics, S. N. York, Hrsg., New York, NY, 2010.

  14. J. Kendall, R. Pantone, K. Manickavasagam, Y. Bengio und B. Scellier, „Training End-to-End Analog Neural Networks with Equilibrium Propagation,“ in arXiv: 2006.01981 [cs], 2020.

  15. F. Zenke, S. M. Bohté, C. Clopath, I. M. Comşa, J. Göltz, W. Maass, T. Masquelier, R. Naud, E. O. Neftci, M. Petrovici, F. Scherr und D. Goodman, „Visualizing a joint future of neuroscience and neuromorphic engineering,“ in Neuron, Vol. 109, 2021.

  16. R. El-Allami, A. Marchisio, M. Shafique und I. Alouani, „Securing Deep Spiking Neural Networks against Adversarial Attacks through Inherent Structural Parameters,“ in arXiv: 2012.05321 [cs], 2020.

  17. A. Marchisio, G. Nanfa, F. Khalid, M. Hanif, M. Martina und M. Shafique, „Is Spiking Secure? A Comparative Study on the Security Vulnerabilities of Spiking and Deep Neural Networks,“ in International Joint Conference on Neural Networks (IJCNN) , 2020.

  18. R. Siva Kumar, M. Nystrom, J. Lambert, A. Marshall, M. Goertzel, A. Comissoneru, M. Swann und S. Xia, „Adversarial Machine Learning – Industry Perspectives,“ in SSRN Journal, 2020.

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Karla Markert.

Rights and permissions

Reprints and permissions

About this article

Check for updates. Verify currency and authenticity via CrossMark

Cite this article

Markert, K., Böttinger, K. Robuste Lernverfahren . Datenschutz Datensich 45, 457–461 (2021). https://doi.org/10.1007/s11623-021-1471-9

Download citation

  • Published:

  • Issue Date:

  • DOI: https://doi.org/10.1007/s11623-021-1471-9

Navigation