Инопланетяне, искусственный интеллект и еще 5 предостережений Стивена Хокинга
Известный британский физик Стивен Хокинг утверждает, что шансы человечества устроить техногенную катастрофу в ближайшее тысячелетие неуклонно растут с развитием науки и техники — это может быть ядерная война, глобальное потепление и вирусы, созданные посредством биотехнологий. Человечество сможет спастись, улетев на другие планеты — но в ближайшие столетия, пока мы не способны создавать жизнеспособные колонии в космосе, нам вести себя разумно. Собрали все, от чего нас предостерегает знаменитый ученый.
1. Искусственный интеллект
По большому счету, Стивен Хокинг боится не искусственного интеллекта (ИИ), а безответственных людей. На Глобальной конференции мобильного интернета, состоявшейся 27 апреля в Пекине, ученый предостерег человечество от бездумного использования новейших технологий.
«Развитие искусственного интеллекта может стать как наиболее позитивным, так и самым страшным фактором для человечества. Мы должны осознавать опасность, которую он собой представляет», – подчеркнул Хокинг.
Физик полагает, что нерациональное использование возможностей информационных технологий может сделать человека беззащитным перед лицом природы. В условиях естественного отбора это может привести человечество к гибели. Впрочем, Хокинг уверен полагает, что при умелом подходе искусственный интеллект способен решить множество глобальных проблем.
Ученый заявлял о своем противоречивом отношении к высоким технологиям неоднократно. В 2015 году Хокинг подписал открытое письмо с предупреждением, что оружие искусственного интеллекта может создать «глобальную гонку вооружений» в будущем. В числе подписавших письмо – Илон Маск, директор по исследованиям Google Питер Норвиг, профессор Стюарт Дж. Рассел из Калифорнийского университета в Беркли и другие эксперты в области ИИ, программисты, робототехники и специалисты по этике. Ученые и специалисты призывали тщательно изучить влияние искусственного интеллекта на общество.
«Технология искусственного интеллекта достигла точки, когда развертывание таких систем практически (если не юридически) осуществимо в течение лет, а не десятилетий, и ставки высоки: автономное оружие описывают как третью революцию в войне после изобретения пороха и разработки ядерного оружия «, – говорится в письме.
Стивен Хокинг и Илон Маск описали 23 принципа искусственного интеллекта, соблюдение которых позволило бы человечеству избежать ошибок. Среди них культура исследовательского сообщества, в которую входит доверие и открытость, безопасность, юридическая прозрачность, следование ценностям человечества и соблюдение таких неотъемлемых прав человека, как право на свободу и частную жизнь.
2. Ядерная война
Хокинг призывает человечество к эмпатии. В противном случае человеческая агрессия в сочетании с технологическими достижениями в области ядерного оружия может привести к нашей гибели.
«Человеческий недостаток, который я хотел бы исправить, – это агрессия», – сказал Хокинг в интервью The Independent в прошлом году. «Возможно, в пещерные дни он давал нам преимущество в выживании, мы могли заполучить больше еды, территории или партнера для размножения, но теперь агрессия может уничтожить всех нас»
3. Глобальное потепление
Поверхность Венеры
Стивен Хокинг опасается, что изменения климата приведут к вымиранию всего живого на планете. Ученый озабочен позицией президента США Дональда Трампа, который отрицает глобальное потепление.
«Мы не знаем, когда остановится глобальное потепление», – говорит Хокинг. «Но самый худшее в этом сценарии то, что Земля будет похожа на свою сестринскую планету Венеру с температурой 250 градусов Целисия и дождем из серной кислоты. Человеческая раса не смогла бы выжить в этих условиях».
Тем не менее, ученый настроен оптимистично и уверен, что человечество еще может все исправить.
4. Генетически модифицированные вирусы
5. Инопланетяне
Ученый убежден, что жизнь на других планетах существует, однако он советует людям вступать в контакт с инопланетянами с осторожностью. В получасовой программе «Любимые места Стивена Хокинга» на канале CuriosityStream, ученый заявил, что встреча землян с более развитыми цивилизациями может быть подобна «встрече коренных жителей Америки с Колумбом», которая «плохо кончилась».
При этом астрофизик считает, что жители других планет могут использовать Землю как источник ресурсов, если они окажутся более развитыми, чем жители Земли. Такое заявление физик сделал в свете открытия планеты Gliese 832c, которая находится на расстоянии 16 световых лет от Земли.
6. Перенаселение, голод и неравенство
Стивена Хокинга волнуют проблемы неравенства. Он отмечает, что с распространением интернета и социальных медиа по всему миру положение людей в развивающихся странах стало еще более очевидным. Хокинг уверен, что мир ожидает волна экономических миграций, так как люди из бедных стран будут стремиться уехать за границу.
«Эти мигранты, в свою очередь, предъявят новые требования к инфраструктурам и экономике стран, в которые они прибыли, подрывая толерантность и усиливая политический популизм.»
Людям необходимо образовать сплоченное международное сообщество, чтобы решать проблемы, такие как голод и перенаселение.
7. Технологическая безработица
Это один из аргументов Хокинга, подтверждающих необходимость отнестись к ИИ со всей ответственностью.
«Автоматизация заводов уже сократила рабочие места в традиционном производстве, а развитие искусственного интеллекта, вероятно, заденет средний класс, оставив только профессии, связанные с творчеством, уходом и воспитанием и управлением. Это, в свою очередь, ускорит и без того растущее экономическое неравенство во всем мире. Интернет и другие платформы позволят очень маленьким группам людей получать огромные прибыли, а занято будет очень мало людей. Это неизбежно, это прогресс, но он будет разрушителен для общества», утверждает ученый.
Комментарии