Cechą charakterystyczną systemów SI jest to, że ich działanie opiera się na dużych ilościach danych. Dlatego znaczna liczba zagrożeń może zostać nakierowana na zasoby danych. Ataki na systemy sztucznej inteligencji mogą polegać na wykorzystaniu poszczególnych zasobów, np. zbiorów danych treningowych (przykładowo atak „data poisoning”. Ataki mogą także dotyczyć samych modeli – piszą w Kwartalniku Prawa Nowych Technologii Artur Piechocki i Katarzyna Gorzkowska