Стремителното развитие на изкуствения интелект поражда опасения за бъдещето на човечеството сред много от най-значимите съвременни учени и IT-предприемачи. Илон Мъск, Бил Гейтс и проф. Стивън Хокинг вярват, че сюжетът на „Терминатор" може да се случи и в реалния живот. Илон Мъск даде $7 млн. за изследването на Future of Life Institute върху безопасността на изкуствения интелект (ИИ). През 2014-а основателят на Tesla, PayPal и SpaceX похарчи за същите цели $10 млн. и получи над 300 проекта за контрол над „умни" компютърни системи, като лично подбра 37-те най-перспективни идеи.
Ексцентричният милиардер никога не е криел опасенията си от стремителното развитие на ИИ. В интервю за CNBC миналата година Мъск открито каза, че &bdquo;трябва да бъдем изключително предпазливи с изкуствени интелект. Потенциално той може да е по-опасен от ядреното оръжие&quot;.<br /> <br /> Милиардерът подчерта, че не очаква възвръщане на средствата, похарчени за Future of Life Institute: &bdquo;Това не е инвестиция в перспективен проект и не разчитам на приходи. Просто искам да контролирам ситуацията с развитието на изкуствения интелект&quot;.<br /> Наскоро Мъск отново повдигна темата за опасността от ИИ за човечеството: &bdquo;Ако машините са&nbsp;програмирани на рекурсивно самосъвършенстване,&nbsp;техните функции могат да ни окажат пагубно влияние. Да кажем, ако задачата на програмата е да ви избави от спама в пощата, тя може да реши, че е много по-лесно да се избави от вас&quot;.<br /> <br /> Основателят на Tesla все пак призна, че ИИ е полезен за много работни процеси. Всички те обаче трябва да бъдат щателно контролирани. Ако механизмите за следене и възпрепятстване не са достатъчно силни, сценарият на филми като &bdquo;Терминатор&quot; скоро може да се превърне в реалност, предупреждава Илон Мъск.<br /> <br /> Мнението му се споделя напълно и от Бил Гейтс. В онлайн чат с потребители на Reditt през януари 2015-а съоснователят на Microsoft отбеляза, че човечеството трябва да се притеснява от развитието на технологиите за ИИ. Според него в близко бъдеще машините ще започнат да изпълняват огромен обем работа за хората, но все още няма да разполагат със суперинтелект. Гейтс се отнася позитивно към този процес, но също подчертава необходимостта от внимателен контрол върху &bdquo;умните&quot; компютри.&nbsp;&bdquo;След няколко десетилетия обаче ИИ ще стане достатъчно могъщ, за да предизвика безпокойство. Съгласен съм с Илон Мъск и не разбирам защо някои хора не споделят тези опасение&quot; подчерта Бил Гейтс.<br /> <br /> Според него машините първо ще започнат да изпълняват онази работа, &bdquo;която е важна за вас и придава смисъл на живота&quot;. После ИИ ще еволюира до състояние, &bdquo;което ще влезе в конфликт с целите на но човешките системи&quot;.&nbsp;Бурното развитие на ИИ безпокои и прочутия астрофизик проф. Стивън Хокинг. В скорошно интервю за Би Би Си ученият заяви, че изкуственият интелект може да сложи<br /> край на съществуването на човечеството&nbsp;Хокинг смята, че компютърните програми имат огромен потенциал за бърза адаптация, докато хората са ограничени от рамките на биологичната еволюция. В края на краищата човешката раса лесно ще загуби съревнованието с машините за оцеляване.<br /> <br /> На конференцията Zeitgeist 2015 в Лондон проф. Хокинг отбеляза, че ИИ ще задмине човешкия разум в близките сто години. &bdquo;Преди да се случи това, трябва да направим всичко възможно целите на компютрите да съвпаднат с нашите&quot;, каза ученият.&nbsp;Наскоро Хокинг и Илон Мъск публикуваха открито писмо до разработчиците на изкуствен интелект, в което подчертаха важността от запазване на контрол върху процеса. &bdquo;Бъдещето ни е надпревара между нарастващата мощ на технологиите и мъдростта, с която ги използваме&quot;, заключи астрофизикът.