Вторник, 11 декабря 2018 16 +   Регистрация   Подписка на обновления  RSS  Обратная связь
17:57, 05 декабря 2018

Является ли искусственный интеллект опасным? Обзор возможных угроз


Многие известные личности, такие как Стивен Хокинг, Билл Гейтс и Илон Маск, неоднократно говорили о том, что дальнейшее развитие искусственного интеллекта связано с множеством потенциальных рисков. Экспоненциальный рост привел к созданию чрезвычайно продвинутых алгоритмов гораздо раньше, чем предполагалось. Вместе с тем технология все глубже проникает в нашу жизнь, начиная отвечать за стабильную работу многих приложений и даже физической инфраструктуры. В материале мы рассмотрели основные глобальные угрозы, связанные с прогрессивным ИИ.

Что обобщает термин «искусственный интеллект»?

Под искусственным интеллектом обычно подразумевают созданные системы, которые способны мыслить и действовать разумно. В их число входят множество приложений, таких как алгоритмы поиска Google и механизмы, обеспечивающие автономное перемещение беспилотных автомобилей. Хотя большинство современных моделей применяются во благо человечества, но любой мощный инструмент можно использовать для нанесения вреда, особенно если он попадет не в те руки.

На сегодня разработчики добились взаимодействия нескольких систем искусственного интеллекта между собой, но пока это распространяется только на узкие задачи, такие ​​как распознавание лиц, обработка естественного языка или поиск в Интернете. В конечном счете, специалисты в этой области планируют перейти к полностью автономному ИИ, алгоритмы которого смогут справиться с любыми интеллектуальными задачами, выполняемыми людьми, и, скорее всего, превосходящему нас в решении любой из них.

В одном из своих комментариев, Илон Маск отметил невероятно быстрые темпы развития ИИ в широком понимании этого термина. По его словам, те, кто не контактирует с ведущими разработчиками систем машинного обучения и нейронных сетей, даже не представляют, что показатели прогресса в этой области близки к экспоненциальному росту. Поэтому в следующие 5-10 лет с большой вероятностью произойдет что-то действительно опасное.

Существует достаточно много приложений, связанных с искусственным интеллектом, которые делают нашу повседневную жизнь более комфортной и эффективной. Именно они играют решающую роль в обеспечении безопасности, которая беспокоит Илона Маска, Стивена Хокинга, Била Гейтса и других, когда они рассказывали о сомнениях относительно развития технологии. Например, если ИИ отвечает за обеспечение работы энергосистемы, и мы теряем над ней контроль или ее взламывает враг, то это может привести к огромному ущербу.

Основные угрозы, связанные с искусственным интеллектом

Пока человечество еще не создало превосходящие нас машины, следует заранее обратить внимание на сложные и масштабные юридические, политические, социальные, финансовые и нормативные вопросы, чтобы заранее обеспечить нашу безопасность. Однако искусственный интеллект даже в существующем сегодня виде может представлять потенциальную опасность.

Автономное оружие

Одной из наиболее опасных угроз являются самостоятельные системы вооружения, которые запрограммированы на убийство и представляют реальный риск для жизни. Скорее всего, гонка ядерного вооружения будет заменена глобальным соперничеством в разработке военных автономных систем. В прошлом году президент РФ Владимир Путин сказал:

Источник: bitcryptonews.ru
Telegram: Подписаться

0
Поделиться в соцсетях:

Об авторе: Dmitry Yoda

Помимо силы, мастер Йода очень увлекался блокчейном.

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *

Нажимая кнопку [ОТПРАВИТЬ КОММЕНТАРИЙ], Вы соглашаетесь на сбор и обработку своих персональных данных и подтверждаете ознакомление с политикой конфиденциальности!!!

Мы в соцсетях:
О проекте
Реклама и сотрудничество
Обратная связь
Поддержать проект

© 2017-2018 RuHash#
Интернет-медиа о мире высоких технологий

Копирование и распространение материалов с сайта ruhash.com разрешено только с указанием активной ссылки на RuHash#
как на источник. Указание ссылки является обязательным при копировании материалов в социальные сети или печатные издания.

Дизайн и поддержка: GoodwinPress.ru


Политика конфиденциальности

Материалы, представленные на данном сайте, не являются офертой или рекомендацией к покупке или продаже каких-либо активов.

Авторизация
*
*
Регистрация
*
*
*
Пароль не введен
captcha
Генерация пароля