Получите скидку 40%
Новинка! 💥 Приобретите ProPicks и узнайте стратегию, опередившую S&P 500 более чем на 1,183% Получить СКИДКУ 40%

Три вещи, которые могут уничтожить человечество в этом столетии

Опубликовано 30.12.2020, 11:04
Обновлено 30.12.2020, 11:09
© Reuters.

© Reuters.

Investing.com — Искусственный интеллект, синтетическая биология и так называемые «неизвестные неизвестные» могут уничтожить человечество до 2100 года, считает сооснователь Skype Яан Таллинн.

При этом он не рассматривает как самую серьезную глобальную угрозу изменение климата, которое ООН признала «определяющей проблемой нашего времени», отметив, что «важные переломные моменты, ведущие к необратимым изменениям в основных экосистемах и планетарной климатической системе, возможно, уже были достигнуты или пройдены».

«Изменение климата не станет риском для существования, если не будет потери контроля», — сказал эстонский программист в интервью CNBC.

Он пояснил, что синтетическая биология занимается разработкой и созданием новых биологических частей, устройств и систем, в то время как «неизвестные неизвестные» — это «вещи, которые мы, возможно, не можем представить прямо сейчас».

Из трех угроз, которые больше всего беспокоят Таллинна, он сосредоточен на искусственном интеллекте и тратит миллионы долларов, пытаясь обеспечить безопасное развитие технологии. Это включает в себя инвестиции на ранних стадиях в лаборатории искусственного интеллекта, такие как DeepMind (отчасти для того, чтобы он мог следить за тем, что они делают) и финансирование исследований безопасности ИИ в таких университетах, как Оксфорд и Кембридж.

Ссылаясь на книгу оксфордского профессора Тоби Орда, Таллинн сказал, что вероятность гибели людей в этом веке составляет 1 к 6. Согласно книге, одной из самых больших потенциальных угроз в ближайшем будущем является именно ИИ, а вероятность того, что изменение климата приведет к вымиранию человечества, составляет менее 1%.

Сейчас практически невозможно предугадать, каким будет развитие искусственного интеллекта, насколько умными станут машины в следующие 10, 20 или 100 лет. Попытки предсказать будущее ИИ осложняются тем обстоятельством, что системы ИИ начинают создавать другие системы ИИ уже без участия человека. Об опасности, связанной с выходом из-под контроля ИИ не раз говорил и основатель SpaseX и Tesla (NASDAQ:TSLA) Илон Маск.

По словам Таллинна, если выяснится, что ИИ не очень хорош для создания других ИИ, тогда человечеству не стоит слишком беспокоиться, однако в обратном случае «очень оправданно беспокоиться... о том, что произойдет дальше».

Исследователи безопасности ИИ рассматривают два основных «апокалиптических» сценария.

Первый — это несчастный случай в лаборатории, когда исследовательская группа оставляет ИИ, чтобы тренироваться на компьютерных серверах вечером, а «утром мира больше нет».

Во втором случае исследовательская группа создает прототипную технологию, которая затем применяется в различных областях, «где она в конечном итоге приводят к нежелательным последствиям».

Таллинна больше заботит первый вариант, поскольку меньше людей думают о таком сценарии.

Отвечая на вопрос, беспокоит ли его проблема суперинтеллекта (гипотетическая возможность достижения машиной интеллекта человеческого уровня, который она затем быстро превосходит), он сказал: «Если кто-то говорит, что это произойдет завтра или этого не произойдет в ближайшие 50 лет, я бы сказал, что оба они слишком самоуверенны».

Крупнейшие мировые технологические компании выделяют миллиарды долларов на развитие ИИ. Хотя некоторые из их исследований публикуются открыто, большая часть — нет.

По словам Таллинна, некоторые компании относятся к безопасности искусственного интеллекта более серьезно, чем другие. DeepMind, например, поддерживает регулярные контакты с исследователями безопасности ИИ в таких местах, как Институт будущего человечества в Оксфорде. В нем также работают десятки людей, которые сосредоточены на этой проблеме.

А такие корпоративные центры, как Google (NASDAQ:GOOGL) Brain и Facebook (NASDAQ:FB) AI Research, менее вовлечены в сообщество по безопасности искусственного интеллекта.

«Если выяснится, что ИИ в ближайшее время не будет очень разрушительным, тогда, конечно, было бы полезно, если бы компании действительно пытались решать некоторые проблемы более распределенным образом», — полагает Таллинн.

При подготовке исполmзованы материалы CNBC

Последние комментарии по инструменту

Самы большой риск это человеческий фактор.
а откуда мнение, что ИИ будут вообще интересовать люди? вот живут дельфины: мозг гораздо больше человеческого, силища огромная, плавают где хотят, еды полно, обожают секс, причем как гетеро, так и гомо. и людьми по большому счету не интересуются. есть вероятность, что вообще рассматривают нас как мы милых белочек и кошечек. то есть люди дельфинам до фени. почему ИИ будут интересны люди? с людьми просто - включи им каналы на Ютубе или телеге: кому порно, другой - мелодраму, третьему - про авто, четвертой - о пользе сна и т.д., люди мешать не будут. чего о нас париться, настроит для нас ИИ жизнь по интересам и перейдет в спящий режим .
Хотелось бы попросить редактора самому прочитывать новости прежде чем опубликовывать такой бред.
Хотелось бы попросить редактора самому прочитывать новости прежде чем опубликовывать такой бред.
хоть бы не было вайны....
Опасаться "неизвестного неизвестного" ?. Паранойя?
Бухло, наркота и женщины?
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам. Айзек Азимов
чушь. для кого-то вред - это жареная картошечка на ночь, а для другого - нагрузка в спортзале. если дать возможность ИИ решать, что делать людям и поставить задачу не причинять вреда, существует большой шанс, что ИИ отберёт по паре разных национальностей, которые будут жить нормальной жизнью где-нибудь на острове. а остальным включит Ютуб, который тонко персонально настроит под их интересы. эти люди будут бесконечно смотреть ролики, перестанут выходить из дома, знакомиться, жениться, рожать детей. и то же - все будет во благо.
Этому столику не наливать
Очень жизнеутверждающе для нового года, спасибо
Нам, Южной Америке и Африке не грозит.
Терминатор: судный день
: непростой год
нафига озвучивать мнение какого то психа из Таллина, совсем на своих играх помешались
Неуч,это основатель Скайп а не псих с Таллина
 основатель Скайпа - это теперь замена докторской степени?)) Тогда на очереди создатели контакта, тик-тока и тп)
Из трех угроз, которые больше всего беспокоят Таллинна, он сосредоточен на искусственном интеллекте и тратит миллионы долларов..Миллионов 6 уже потратил,было бы миллионов 20 купил бы яхту нормальную и плавал где  хотел,а так за неимением приходится фигнёю заниматься
ИИ это в первую очередь лень человеческого индивидуума и жажда наживы .Давным давно, пора приравнять человека, имеющего состояние более определенного уровня( к примеру 1 млрд долларов) к психическому заболеванию . Зачем индивидууму СТОЛЬКО денег и ВЛАСТИ ???В мире будущего они должны быть приравнены к психам и их надо принудительно лечить .
человек может безконца работать и жить этом, на его балансе скапливается сколько угодно бабла, но кто то хреного работает, хотьи старается, но в силу возможностей заработать как первому ему никогда не удастся, потому что не пригоден для такой работы
Единственная угроза для человечества .это психопаты богоизбранные-миллардеры типа Билли ,одержимые идеей сохранения своего статус кво и сокращением популяции ...Вот это реальная проблема
ИИ - набор алгоритмов и правил, написанных самим человеком. Это такая же машина, как и принтер, который печатает то, что вы хотите. Просто вычислений на порядок больше. Если что и убьет людей, так это мы сами благодаря ошибкам или чьим то корыстным/властным интересам.
помоему человечество потихоньку начинает вымирать. Посмотрите на Европу, белое население уже сокращается, потом когда в Африке развитие станет как в европе, то и они перестанут рождаться, и так все, потом в пробирках выращивать начнут
К тому времени оставшиеся в живых европейцы одичают, снова додумаются, что убивать дубиной удобнее чем руками и начнут размножаться)))
ИИ - набор алгоритмов и правил, написанных самим человеком. Это такая же машина, как и принтер, который печатает то, что вы хотите. Просто вычислений на порядок больше. Если что и убьет людей, так это мы сами благодаря ошибкам или чьим то корыстным/властным интересам.
вероятность 50%, либо будет уничтожено, либо нет
Установите наши приложения
Предупреждение о риске: Торговля финансовыми инструментами и (или) криптовалютами сопряжена с высокими рисками, включая риск потери части или всей суммы инвестиций, поэтому подходит не всем инвесторам. Цены на криптовалюты чрезвычайно волатильны и могут изменяться под действием внешних факторов, таких как финансовые новости, законодательные решения или политические события. Маржинальная торговля приводит к повышению финансовых рисков.
Прежде чем принимать решение о совершении сделки с финансовым инструментом или криптовалютами, вы должны получить полную информацию о рисках и затратах, связанных с торговлей на финансовых рынках, правильно оценить цели инвестирования, свой опыт и допустимый уровень риска, а при необходимости обратиться за профессиональной консультацией.
Fusion Media напоминает, что информация, представленная на этом веб-сайте, не всегда актуальна или точна. Данные и цены на веб-сайте могут быть указаны не официальными представителями рынка или биржи, а рядовыми участниками. Это означает, что цены бывают неточны и могут отличаться от фактических цен на соответствующем рынке, а следовательно, носят ориентировочный характер и не подходят для использования в целях торговли. Fusion Media и любой поставщик данных, содержащихся на этом веб-сайте, отказываются от ответственности за любые потери или убытки, понесенные в результате осуществления торговых сделок, совершенных с оглядкой на указанную информацию.
При отсутствии явно выраженного предварительного письменного согласия компании Fusion Media и (или) поставщика данных запрещено использовать, хранить, воспроизводить, отображать, изменять, передавать или распространять данные, содержащиеся на этом веб-сайте. Все права на интеллектуальную собственность сохраняются за поставщиками и (или) биржей, которые предоставили указанные данные.
Fusion Media может получать вознаграждение от рекламодателей, упоминаемых на веб-сайте, в случае, если вы перейдете на сайт рекламодателя, свяжитесь с ним или иным образом отреагируете на рекламное объявление.
Английская версия данного соглашения является основной версией в случае, если информация на русском и английском языке не совпадают.