Главные новости
0
Версия без рекламы. Оптимизируйте свою работу с Investing.com. Сэкономьте до 40%. Подробнее

Три вещи, которые могут уничтожить человечество в этом столетии

Экономика30.12.2020 11:09
Сохранено. См. Закладки.
Вы уже сохранили эту статью в Закладки
 
© Reuters.

Investing.com — Искусственный интеллект, синтетическая биология и так называемые «неизвестные неизвестные» могут уничтожить человечество до 2100 года, считает сооснователь Skype Яан Таллинн.

При этом он не рассматривает как самую серьезную глобальную угрозу изменение климата, которое ООН признала «определяющей проблемой нашего времени», отметив, что «важные переломные моменты, ведущие к необратимым изменениям в основных экосистемах и планетарной климатической системе, возможно, уже были достигнуты или пройдены».

«Изменение климата не станет риском для существования, если не будет потери контроля», — сказал эстонский программист в интервью CNBC.

Он пояснил, что синтетическая биология занимается разработкой и созданием новых биологических частей, устройств и систем, в то время как «неизвестные неизвестные» — это «вещи, которые мы, возможно, не можем представить прямо сейчас».

Из трех угроз, которые больше всего беспокоят Таллинна, он сосредоточен на искусственном интеллекте и тратит миллионы долларов, пытаясь обеспечить безопасное развитие технологии. Это включает в себя инвестиции на ранних стадиях в лаборатории искусственного интеллекта, такие как DeepMind (отчасти для того, чтобы он мог следить за тем, что они делают) и финансирование исследований безопасности ИИ в таких университетах, как Оксфорд и Кембридж.

Ссылаясь на книгу оксфордского профессора Тоби Орда, Таллинн сказал, что вероятность гибели людей в этом веке составляет 1 к 6. Согласно книге, одной из самых больших потенциальных угроз в ближайшем будущем является именно ИИ, а вероятность того, что изменение климата приведет к вымиранию человечества, составляет менее 1%.

Сейчас практически невозможно предугадать, каким будет развитие искусственного интеллекта, насколько умными станут машины в следующие 10, 20 или 100 лет. Попытки предсказать будущее ИИ осложняются тем обстоятельством, что системы ИИ начинают создавать другие системы ИИ уже без участия человека. Об опасности, связанной с выходом из-под контроля ИИ не раз говорил и основатель SpaseX и Tesla (NASDAQ:TSLA) Илон Маск.

По словам Таллинна, если выяснится, что ИИ не очень хорош для создания других ИИ, тогда человечеству не стоит слишком беспокоиться, однако в обратном случае «очень оправданно беспокоиться... о том, что произойдет дальше».

Исследователи безопасности ИИ рассматривают два основных «апокалиптических» сценария.

Первый — это несчастный случай в лаборатории, когда исследовательская группа оставляет ИИ, чтобы тренироваться на компьютерных серверах вечером, а «утром мира больше нет».

Во втором случае исследовательская группа создает прототипную технологию, которая затем применяется в различных областях, «где она в конечном итоге приводят к нежелательным последствиям».

Таллинна больше заботит первый вариант, поскольку меньше людей думают о таком сценарии.

Отвечая на вопрос, беспокоит ли его проблема суперинтеллекта (гипотетическая возможность достижения машиной интеллекта человеческого уровня, который она затем быстро превосходит), он сказал: «Если кто-то говорит, что это произойдет завтра или этого не произойдет в ближайшие 50 лет, я бы сказал, что оба они слишком самоуверенны».

Крупнейшие мировые технологические компании выделяют миллиарды долларов на развитие ИИ. Хотя некоторые из их исследований публикуются открыто, большая часть — нет.

По словам Таллинна, некоторые компании относятся к безопасности искусственного интеллекта более серьезно, чем другие. DeepMind, например, поддерживает регулярные контакты с исследователями безопасности ИИ в таких местах, как Институт будущего человечества в Оксфорде. В нем также работают десятки людей, которые сосредоточены на этой проблеме.

А такие корпоративные центры, как Google (NASDAQ:GOOGL) Brain и Facebook (NASDAQ:FB) AI Research, менее вовлечены в сообщество по безопасности искусственного интеллекта.

«Если выяснится, что ИИ в ближайшее время не будет очень разрушительным, тогда, конечно, было бы полезно, если бы компании действительно пытались решать некоторые проблемы более распределенным образом», — полагает Таллинн.

При подготовке исполmзованы материалы CNBC

Три вещи, которые могут уничтожить человечество в этом столетии
 

Интересное

Аренда
Аренда "однушки" в крупнейших городах РФ в октябре - около 20-21 тыс. руб. в месяц, "двушки" - 26-29 тыс. - эксперты IFX - 24.10.2021 2

В России произошел резкий скачок стоимости долгосрочной аренды жилья, свидетельствуют данные «Циан.Аналитика». Однокомнатные квартиры в 16 крупнейших городах страны в октябре...

Китай вывел на орбиту спутник для проведения экспериментов по сбору космического мусора
Китай вывел на орбиту спутник для проведения экспериментов по сбору космического мусора IFX - 24.10.2021 5

Китай в воскресенье успешно вывел на орбиту спутник "Шицзянь-21" для испытания технологий по ликвидации космического мусора, сообщила Корпорация аэрокосмической науки и техники...

Комментировать

Правила комментирования

Участвуйте в форуме для взаимодействия с пользователями, делитесь своим мнением и задавайте вопросы другим участникам или авторам. Пожалуйста, используйте стандартный письменный стиль и придерживайтесь наших правил.

Категорически запрещается:

  • Размещение ссылок, рекламы и спам;
  • Ненормативная лексика, а также замена букв символами;
  • Оскорбления в адрес участников форума и авторов;
  • Разжигание межнациональной и расовой розни;
  • Комментарии, состоящие из заглавных букв.
  • Допускаются комментарии только на русском языке.

Размещение комментария на Investing.com автоматически означает Ваше согласие с правилами комментирования и с необходимостью их соблюдения.

Investing.com оставляет за собой право модерировать и удалять комментарии посетителей сайта, нарушающие правила, а при повторном нарушении – блокировать доступ на сайт и запрещать дальнейшую регистрацию на Investing.com. 

Ваш комментарий
 
Вы действительно хотите удалить этот график?
 
Опубликовать
Опубликовать также в :
 
Заменить данный график на новый?
1000
В связи с жалобами других пользователей вам временно запрещено добавлять новые комментарии. Ваш статус будет проверен нашим модератором в ближайшее время.
Пожалуйста, подождите минуту, прежде чем оставить комментарий.
Спасибо, ваш комментарий добавлен и появится на форуме после проверки модератором.
Комментарии (21)
Sasha ZZ
Sasha ZZ 31.12.2020 6:32
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
Самы большой риск это человеческий фактор.
Abc De
Abc De 31.12.2020 0:28
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
а откуда мнение, что ИИ будут вообще интересовать люди? вот живут дельфины: мозг гораздо больше человеческого, силища огромная, плавают где хотят, еды полно, обожают секс, причем как гетеро, так и гомо. и людьми по большому счету не интересуются. есть вероятность, что вообще рассматривают нас как мы милых белочек и кошечек. то есть люди дельфинам до фени. почему ИИ будут интересны люди? с людьми просто - включи им каналы на Ютубе или телеге: кому порно, другой - мелодраму, третьему - про авто, четвертой - о пользе сна и т.д., люди мешать не будут. чего о нас париться, настроит для нас ИИ жизнь по интересам и перейдет в спящий режим .
Бил Инвесторов
Бил Инвесторов 30.12.2020 21:56
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
Хотелось бы попросить редактора самому прочитывать новости прежде чем опубликовывать такой бред.
Бил Инвесторов
Бил Инвесторов 30.12.2020 21:55
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
Хотелось бы попросить редактора самому прочитывать новости прежде чем опубликовывать такой бред.
нищий на форексе
нищий на форексе 30.12.2020 15:07
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
хоть бы не было вайны....
Вадим Мисевря
Вадим Мисевря 30.12.2020 14:41
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
Опасаться "неизвестного неизвестного" ?. Паранойя?
Artöm Tos
Artöm Tos 30.12.2020 14:17
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
Бухло, наркота и женщины?
Elon Musk
Musk 30.12.2020 13:33
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам. Айзек Азимов
Abc De
Abc De 30.12.2020 13:33
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
чушь. для кого-то вред - это жареная картошечка на ночь, а для другого - нагрузка в спортзале. если дать возможность ИИ решать, что делать людям и поставить задачу не причинять вреда, существует большой шанс, что ИИ отберёт по паре разных национальностей, которые будут жить нормальной жизнью где-нибудь на острове. а остальным включит Ютуб, который тонко персонально настроит под их интересы. эти люди будут бесконечно смотреть ролики, перестанут выходить из дома, знакомиться, жениться, рожать детей. и то же - все будет во благо.
Elon Musk
Musk 30.12.2020 13:32
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
Этому столику не наливать
Даниил Истомин
Даниил Истомин 30.12.2020 13:23
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
Очень жизнеутверждающе для нового года, спасибо
Андрей Орешкин
Андрей Орешкин 30.12.2020 13:12
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
Нам, Южной Америке и Африке не грозит.
Инвестор от Бога
Инвестор от Бога 30.12.2020 12:18
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
Терминатор: судный день
Лаура Гуляева
Лаура Гуляева 30.12.2020 12:18
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
: непростой год
Вит мор
Вит мор 30.12.2020 12:16
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
нафига озвучивать мнение какого то психа из Таллина, совсем на своих играх помешались
Volodymyr Balanyk
Volodymyr Balanyk 30.12.2020 12:16
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
Неуч,это основатель Скайп а не псих с Таллина
Rimma Fedotova
Rimma Fedotova 30.12.2020 12:16
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
Volodymyr Balanyk  основатель Скайпа - это теперь замена докторской степени?)) Тогда на очереди создатели контакта, тик-тока и тп)
любознательный инвестор
любознательный инвестор 30.12.2020 12:16
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
Из трех угроз, которые больше всего беспокоят Таллинна, он сосредоточен на искусственном интеллекте и тратит миллионы долларов..Миллионов 6 уже потратил,было бы миллионов 20 купил бы яхту нормальную и плавал где  хотел,а так за неимением приходится фигнёю заниматься
Сергей Леошкевич
Сергей Леошкевич 30.12.2020 12:09
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
Глупость и невежество
Elon Musk
Musk 30.12.2020 12:09
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
Супер натурал
Супер натурал 30.12.2020 12:09
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
ИИ это в первую очередь лень человеческого индивидуума и жажда наживы .Давным давно, пора приравнять человека, имеющего состояние более определенного уровня( к примеру 1 млрд долларов) к психическому заболеванию . Зачем индивидууму СТОЛЬКО денег и ВЛАСТИ ???В мире будущего они должны быть приравнены к психам и их надо принудительно лечить .
Вит мор
Вит мор 30.12.2020 12:09
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
человек может безконца работать и жить этом, на его балансе скапливается сколько угодно бабла, но кто то хреного работает, хотьи старается, но в силу возможностей заработать как первому ему никогда не удастся, потому что не пригоден для такой работы
Супер натурал
Супер натурал 30.12.2020 12:00
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
Единственная угроза для человечества .это психопаты богоизбранные-миллардеры типа Билли ,одержимые идеей сохранения своего статус кво и сокращением популяции ...Вот это реальная проблема
Сергей Леошкевич
Сергей Леошкевич 30.12.2020 12:00
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
Может "богоизбранные" диктаторишки?
Силуэт Агафьев
Силуэт 30.12.2020 12:00
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
ИИ - набор алгоритмов и правил, написанных самим человеком. Это такая же машина, как и принтер, который печатает то, что вы хотите. Просто вычислений на порядок больше. Если что и убьет людей, так это мы сами благодаря ошибкам или чьим то корыстным/властным интересам.
Копатыч Косолапов
Копатыч Косолапов 30.12.2020 11:59
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
помоему человечество потихоньку начинает вымирать. Посмотрите на Европу, белое население уже сокращается, потом когда в Африке развитие станет как в европе, то и они перестанут рождаться, и так все, потом в пробирках выращивать начнут
Макс Макс
Макс Макс 30.12.2020 11:59
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
К тому времени оставшиеся в живых европейцы одичают, снова додумаются, что убивать дубиной удобнее чем руками и начнут размножаться)))
Силуэт Агафьев
Силуэт 30.12.2020 11:59
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
ИИ - набор алгоритмов и правил, написанных самим человеком. Это такая же машина, как и принтер, который печатает то, что вы хотите. Просто вычислений на порядок больше. Если что и убьет людей, так это мы сами благодаря ошибкам или чьим то корыстным/властным интересам.
Лаура Гуляева
Лаура Гуляева 30.12.2020 11:32
Сохранено. См. Закладки.
Вы уже сохранили этот комментарий в Закладки
вероятность 50%, либо будет уничтожено, либо нет
 
Вы действительно хотите удалить этот график?
 
Опубликовать
 
Заменить данный график на новый?
1000
В связи с жалобами других пользователей вам временно запрещено добавлять новые комментарии. Ваш статус будет проверен нашим модератором в ближайшее время.
Пожалуйста, подождите минуту, прежде чем оставить комментарий.
Добавить график к комментарию
Подтвердить блокировку

Вы уверены, что хотите заблокировать пользователя %USER_NAME%?

После этого вы и %USER_NAME% не сможете видеть комментарии друг друга на Investing.com.

%USER_NAME% добавлен в ваш черный список

Вы только что разблокировали этого участника. Повторно заблокировать этого участника можно только через 48 часов.

Пожаловаться на комментарий

Я считаю, что данный комментарий:

Комментарий отмечен

Спасибо!

Ваша жалоба отправлена модераторам.
Предупреждение: Fusion Media would like to remind you that the data contained in this website is not necessarily real-time nor accurate. All CFDs (stocks, indexes, futures) and Forex prices are not provided by exchanges but rather by market makers, and so prices may not be accurate and may differ from the actual market price, meaning prices are indicative and not appropriate for trading purposes. Therefore Fusion Media doesn`t bear any responsibility for any trading losses you might incur as a result of using this data.

Fusion Media or anyone involved with Fusion Media will not accept any liability for loss or damage as a result of reliance on the information including data, quotes, charts and buy/sell signals contained within this website. Please be fully informed regarding the risks and costs associated with trading the financial markets, it is one of the riskiest investment forms possible.
Войти через ВКонтакте
Войти через Google
или
Зарегистрироваться
Cпециальное предложение именно для вас!