Zagrożenia hakerskiego ataku na sztuczną inteligencję

Opublikowano: 22.02.2018 | Kategorie: Telekomunikacja i komputery, Wiadomości ze świata

Liczba wyświetleń: 672

Grupa naukowców z Uniwersytetów Yale, w Cambridge oraz Oksfordzie oraz eksperci ds. wojskowych ostrzegają, że hakerzy mogą atakować luki w systemach sztucznej inteligencji i wykorzystywać te systemy do przeprowadzania zautomatyzowanych cyberataków, manipulowania opinią publiczną czy spowodować, by komercyjne drony zaczęły atakować wybrane cele. W 98-stronicowym raporcie pt. „Malicious Use of Artificial Intelligence” pojawiło się też wezwanie do zbadania możliwości manipulowania sztuczną inteligencją oraz do przygotowania się na tego typu ataki.

“Wszyscy zgadzamy się, że SI ma wiele pozytywnych zastosowań. Jednak w literaturze fachowej istnieje poważna luka dotycząca jej złośliwego wykorzystania”, mówi Miles Brundage z Oxford University.

W raporcie zwrócono uwagę, że w przyszłości przestępcy będą mogli wykorzystać SI do przeprowadzenia cyberataków na skalę, jaka obecnie nie jest możliwa. Systemy sztucznej inteligencji będą w stanie zidentyfikować najsłabsze cele, uniknąć wykrycia i na bieżąco dostosowywać metodę ataku do działań obronnych. “Bardziej złożone hakerskie narzędzia SI będą bardziej wydajne od wszystkiego co w przeszłości było możliwe i za jakiś czas ich umiejętności będą porównywalne z umiejętnościami ludzi” – stwierdzają autorzy raportu. Jeden z zarysowanych przez nich scenariuszy ataku to DDoS przeprowadzony w taki sposób, że systemy obronne nie będą w stanie odróżnić łączących się z serwerami botów od działań ludzi. Wyposażone w sztuczną inteligencję boty będą bowiem w stanie działać tak, że wykonywane przez nie czynności (np. naciśnięcia klawiszy czy sposób nawigowania po witrynie) będą nie do odróżnienia od sposobu działania ludzi.

Jeszcze innym typem zagrożenia jest możliwość masowego śledzenia dużych obszarów czy przeprowadzenie skoordynowanego ataku. Nietrudno wyobrazić sobie czasy, gdy drony dostarczające zamówione przez internet towary staną się powszechnym widokiem w miastach. Hakerzy, wykorzystując sztuczną inteligencję, mogą przejąć kontrolę nad olbrzymimi grupami takich dronów i wykorzystać ich kamery do śledzenia dużych obszarów czy nakazać dronom przeprowadzenie fizycznego ataku na konkretny obiekt czy osobę. Poruszające się z prędkością kilkudziesięciu kilometrów na godzinę drony mogą poważnie uszkodzić wiele przedmiotów czy zranić lub zabić człowieka.

Na razie specjaliści zajmujący się sztuczną inteligencją skupiają się na zwiększaniu jej możliwości. Należy jednak już teraz myśleć o rozwiązaniach technologicznych i prawnych, które zapewnią ochronę przed przejęciem i niewłaściwym wykorzystaniem sztucznej inteligencji.

Autorstwo: Mariusz Błoński
Na podstawie: ITPro.co.uk
Źródło: KopalniaWiedzy.pl


TAGI: ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

1 wypowiedź

  1. Łukasz Enki 23.02.2018 07:06

    Dwa dnin temu zarabali mi 140f hakerzy.

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.