Изкуствен разум mФизикът Стивън Хокинг, пионер в изследванията на черните дупки, назова главните фактори, които, според него, могат да заплашат развитието на човечеството.

 

Хокинг допуска, че основната заплаха за човечеството ще стане неконтролираното технологично развитие, което може да доведе до ядрена катастрофа или до разпространението на генетически модифицирани вируси.

 

«Не можем да спрем да се движим напред или да върнем прогреса назад, затова трябва да разберем къде се спотайва опасността и да се научим да я държим на пауза», — цитира думите му The Guardian. 

 

«Шансовете да възникне катастрофа на планетата Земя през тази година са минимални, но с времето те ще се увеличават, затова няма никакво съмнение, че това ще се случи в близките хиляда или десет хиляди години», — заяви Хокинг пред ВВС.

 

Според него, човечеството може да се спаси, ако напусне Земята.

 

Припомняме, че през август миналата година над хиляда учени, инженери и бизнесмени от целия свят, в това число Хокинг, написаха писмо с призив да се въведе забрана за използването на автономни оръжейни системи, създадени на базата на изкуствен разум.

Автоматизирано оръжие за масово поразяване
Автоматизирано оръжие за масово поразяване

 

Авторите на писмото не призовават да се забранят в цялост разработките на технологии на базата на изкуствен разум за военната промишленост, но, според тях, тези технологии не трябва да са автономни и да притежават функциите самостоятелно да вземат решения.

Автономни роботи
Автономни роботи

Тагове: ; ; ; ; ; ; ;