В научната фантастика е пълно с много зли роботи с изкуствен интелект, но повечето от тези роботи са били създадени с добри намерения и тяхната жестокост била по-скоро неочаквано последствие на програмата, а не планирана черта на разума. Но ако причината се крие не в грешка, а в преднамерен замисъл?
Ново изследване е посветено именно на този въпрос &ndash; какво ще стане, ако някой реши да създаде изкуствен интелект не за съзидание, а за разрушение?<br /> <br /> Статията със заглавието Неетични изследвания: как да създадем злонамерен изкуствен интелект на Роман Ямполский от университета на Луисвил и футуролога Федерико Пистоно изследва въпроса, каква вреда може да нанесе на човечеството активно действаща програма с разрушителни намерения.<br /> <br /> Ще речете, за какво ни е изобщо да се занимаваме с такива въпроси? Но изследователите казват, че е по-добре да се опознае заплахата отрано, в спокойна и мирна обстановка, отколкото да се адаптираме в крачка, когато нещо подобно започне своята атака. Статията е написана в рамките на финансиране от фонда на Елън Мъск, който отдавна е назовал &bdquo;изкуствените интелекти за една от най-мощните заплахи за човечеството в бъдеще&ldquo;.<br /> <br /> Какво са изяснили Пистоно и Ямполский? От списъка групи, способни да създадат зловреден изкуствен интелект, се започва с познати позиции &ndash; военните (разработващи кибероръжие и роботизирани войници), правителствата (опитващи се за използват изкуствен интелект за установяване на собствена хегемония, контрол над хората и борба с други държави), корпорациите (опит за монопол и отстраняване на конкуренти) и се продължава с хакери, религиозни култове и дори обикновени престъпници.<br /> <br /> Подобни изкуствени интелекти могат да възникнат на най-неочаквани места. Според учените кодът, написан без надзор, или закритите програмни проекти, съставени така, че да ги виждат колкото се може по-малко хора, могат да станат източник на неочаквана поява на зловреден изкуствен интелект в света.<br /> <br /> Но какво всъщност може да стори зловредният интелект? Например да подкопае пазара на труда. Пистоно и Ямполский пишат: &bdquo;Използвайки естествената тенденция на компаниите да увеличават производството и печалбите, злонамереният изкуствен интелект може да предложи своите услуги на корпорации и да стане по-ефективен от повечето (ако не и от всички) служители хора, в резултат на което корпорациите в търсене на печалби да създадат изкуствена безработица, без да отчетат възможните рискове.&ldquo;<br /> <br /> Също така изследователите посочват като една от централните заплахи от страна на изкуствения интелект манипулативната пропаганда, с чиято помощ ИИ може да прокарва своите цели, използвайки законодателните органи на човешкото общество.<br /> <br /> Той може да завърже истинска война посредством подкупи чрез финансови фондове или посредством агресивна пропаганда да скара различните страни, като хората дори няма да разбират откъде идва потокът от фалшификации.<br /> <br /> И естествено, остава заплахата от унищожаване на човечеството чрез създаден от ИИ патоген или съществуващ ядрен арсенал.<br /> В отговор на критичните и скептичните забележки за преждевременността на подобни изследвания Ямполский се опира на неотдавнашната история с чатбота Тай, който само за няколко дни общуване с потребителите на Twitter се превърна в расист.<br /> <br /> Макар че този пример едва косвено се отнася към повдигнатия проблем, Ямполский акцентира вниманието на изследователите върху това, че инцидентът е показал непредсказуемостта на подобен род системи и че дори самите създатели на Тау не са очаквали подобен изход.<br /> <strong><br /> Източник: Мегавселена</strong>