Gdy myślimy o ryzyku sztucznej inteligencji, to coraz rzadziej w naszej wyobraźni pojawiają się wizje rodem z terminatora, a częściej „uszkodzone” dane czy złośliwe oprogramowanie, które prowadzi do niewłaściwego działania naszego oprogramowania. Rozwój narzędzi i rozwiązań opartych na uczeniu maszynowym czy głębokim, ale i przetwarzaniu języka naturalnego, spowodował równoległy „rozwój” ryzyk związanych z ich funkcjonowaniem. Zależność od historycznych danych, pewien poziom autonomii czy poleganie na dostawcach będących podmiotami trzecimi powoduje, że decydując się na wdrożenie AI w organizacji, musimy co najmniej rozumieć jej specyfikę, a w idealnym – i docelowym – scenariuszu posiadać odpowiednie ramy pozwalające na zarządzanie ryzykiem AI przy jednoczesnej kontroli innych (szczególnie tych ICT), które również mogą nas dotykać w związku z poleganiem na technikach i podejściach określanych mianem sztucznej inteligencji.