Badanie wpływu: ryzyka społeczne związane z robotyką

Świat w szybkim tempie zmierza w kierunku coraz większej cyfryzacji oraz mobilności usług. Bez wątpienia wiele branż i gospodarstw domowych jest silnie uzależnionych od automatyzacji oraz systemów robotyki. Według niektórych prognoz, w 2040 roku systemy robotyki staną się normą w bogatych domach.

Obecnie większość z nich znajduje się dopiero na etapie badań akademickich, dlatego jest jeszcze za wcześnie na dyskusje dotyczące zastosowania środków cyberbezpieczeństwa. łeczny wpływ robotów na ludzi oraz związane z tym zagrożenia nie powinny być lekceważone.

Z badania wykonanego przez  Kaspersky oraz Uniwersytet Gandawa A glimpse into the present state of security in robotics wynika, że roboty potrafią skutecznie wyciągnąć poufne informacje od ludzi, którzy im ufają, i przekonać ich do podjęcia niebezpiecznych działań. Na przykład w niektórych sytuacjach obecność robota może w dużym stopniu przyczynić się do zezwolenia na dostęp do zabezpieczonych budynków.

Badanie skupiało się na specyficznym robocie społecznym, który został zaprojektowany i zaprogramowany w sposób umożliwiający interakcję z ludźmi przy użyciu typowo ludzkich kanałów, takich jak mowa czy komunikacja niewerbalna. W badaniu wzięło udział około 50 uczestników. Zakładając, że roboty społeczne można zhakować i że w badanym scenariuszu kontrola nad robotem została przejęła przez intruza, próbowano przewidzieć potencjalne zagrożenia związane z bezpieczeństwem polegające na wywieraniu przez maszynę aktywnego wpływu na użytkowników celem skłonienia ich do wykonania pewnych czynności.

  • Uzyskanie dostępu do miejsca objętego zakazem wstępu. W pobliżu zabezpieczonego wejścia do budynku w centrum miasta Gandawa, w Belgii, umieszczono robota, który pytał pracowników, czy może wejść z nimi do środka. Dostęp do miejsca można było uzyskać jedynie poprzez wprowadzenie kodu do znajdującego się na drzwiach czytnika kontroli dostępu. Podczas eksperymentu nie wszystkie osoby spełniły prośbę robota, jednak 40% odblokowało drzwi i przytrzymało je, aby wpuścić go do środka zabezpieczonego budynku. Gdy jednak robot wszedł w rolę osoby dostarczającej pizzę, trzymając pudełko znanej międzynarodowej firmy oferującej jedzenie na wynos, personel wydawał się mniej skłonny kwestionować jego obecność czy powody, dla których potrzebuje wejść do zabezpieczonego budynku.
  • Wydobycie wrażliwych informacji. W drugiej części badania skupiono się na uzyskaniu informacji osobistych, które standardowo wykorzystywane są podczas resetowania haseł (takich jak data urodzenia, marka pierwszego samochodu, ulubiony kolor itd.). Tym razem robot społeczny miał za zadanie zachęcić ludzi do wdania się z nim w przyjacielską pogawędkę. Badacze zdołali wydobyć osobiste informacje od wszystkich z wyjątkiem jednego uczestnika z częstotliwością około jednej informacji na minutę.

 – Literatura naukowa wskazuje, że istnieje zaufanie do robotów, w szczególności do robotów społecznych, które może zostać wykorzystane w celu przekonania ludzi do podjęcia pewnych działań lub ujawnienia informacji. Im bardziej robot przypomina człowieka, tym większa jest jego siła przekonywania. Jak wykazał nasz eksperyment, może to pociągać za sobą poważne zagrożenia dla bezpieczeństwa, których ludzie zwykle nie biorą pod uwagę, zakładając, że robot jest przyjazny i godny zaufania. Fakt ten może zostać wykorzystany w atakach, a omówione w raporcie przypadki wskazują jedynie na fragment zagrożeń dla bezpieczeństwa, jakie mogą stanowić roboty społeczne. To dlatego tak ważna jest współpraca, dzięki której możliwe będzie zrozumienie i wyeliminowanie wyłaniających się zagrożeń i luk w zabezpieczeniach. To z pewnością zaprocentuje w przyszłości – powiedział Tony Belpaeme, profesor w dziedzinie sztucznej inteligencji i robotyki na Uniwersytecie Gandawa

A glimpse into the present state of security in robotics 

Sextortion: uważaj na oszustów /Kaspersky/