Изкуственият интелект е готов за злоупотреби от режими, престъпници и терористи

Безпилотни самолети, превърнати в ракети, фалшиви видеоклипове, манипулиращи общественото мнение и автоматизирано хакерство са само три от заплахите от изкуствен интелект, попаднал в неправилните ръце, обявиха експерти.

Доклад под наслов "Злонамерено използване на изкуствен интелект" предупреждава, че изкуственият интелект e готов за използване от изолирани и авторитарни режими, престъпници и терористи.

Онези, които проектират системи за изкуствен интелект, трябва да сторят повече, за да смекчат евентуални злоупотреби с тяхната технология, подчертават авторите на доклада.

А правителствата трябва да обмислят нови закони.

Докладът призовава за:

- Политиците и техническите изследователи да работят заедно за разбирането и подготовката за злонамерено използване на изкуствен интелект;

- Осъзнаване, че въпреки че изкуственият интелект има множество положителни приложения, това е технология с двойна употреба и изследователите и инженерите на изкуствен интелект трябва да са наясно и да са проактивни за възможността за злоупотреба;

- Активно разширяване на обхвата на заинтересованите страни, ангажирани с предотвратяването и смекчаването на опасностите от злоумишлено използване на изкуствен интелект.

Говорейки пред БиБиСи, Шахар Авин от Университета в Кеймбридж обясни, че докладът се съсредоточава върху области от изкуствения интелект, които са налични сега или ще бъдат на разположение в рамките на 5 години, вместо да се вглежда в далечното бъдеще.

Особено тревожна е новата област на машинното учене, където изкуствените интелекти са обучавани до свръхчовешки нива на интелигентност без човешки примери или напътствия.

Шахар Авин е очертал някои от сценариите, при които изкуственият интелект може да се превърне в "зъл" в близко бъдеще:

- Технологии като AlphaGo - изкуствен интелект, разработен от компанията DeepMind на Google и който може да надхитри хората, играещи логическата игра Го - могат да бъдат използвани от хакери.

- Злонамерено лице би могло да купи дрон и да го обучи със софтуер за разпознаване на лица, за да убие определен човек.

- Ботове могат да бъдат автоматизирани или "фалшиви", изглеждащи като на живо заснети видеоклипове за политическа манипулация.

- Хакери биха могли да използват синтезирането на речи, за да се представят за определени хора.

Източник: news.bg

Facebook коментари

Коментари в сайта

Последни новини