Полезное:
Как сделать разговор полезным и приятным
Как сделать объемную звезду своими руками
Как сделать то, что делать не хочется?
Как сделать погремушку
Как сделать так чтобы женщины сами знакомились с вами
Как сделать идею коммерческой
Как сделать хорошую растяжку ног?
Как сделать наш разум здоровым?
Как сделать, чтобы люди обманывали меньше
Вопрос 4. Как сделать так, чтобы вас уважали и ценили?
Как сделать лучше себе и другим людям
Как сделать свидание интересным?
Категории:
АрхитектураАстрономияБиологияГеографияГеологияИнформатикаИскусствоИсторияКулинарияКультураМаркетингМатематикаМедицинаМенеджментОхрана трудаПравоПроизводствоПсихологияРелигияСоциологияСпортТехникаФизикаФилософияХимияЭкологияЭкономикаЭлектроника
|
Наиболее вероятный сценарий: дружественный ИИ
Во-первых, ученые, вероятно, примут некоторые простые меры к тому, чтобы роботы не были опасны. В качестве минимальной меры в мозг робота можно поместить специальный чип, который будет автоматически выключать своего носителя при возникновении у него мыслей об убийстве людей. При таком подходе все разумные роботы будут снабжены отказоустойчивым механизмом, который любой человек сможет в любой момент включить, особенно если робот вдруг начнет вести себя неправильно. При малейшем намеке на неисправность и сбои в функционировании робота любая голосовая команда немедленно выключит его. Или можно создать специальных роботов-охотников, обязанностью которых будет нейтрализация роботов с отклонениями в поведении. Роботы-охотники будут превосходить обычных роботов по скорости, силе и координации и смогут без труда захватывать девиантных роботов. В их схему будет заложено понимание слабых мест любой автоматической системы, любого робота, а также принципы их поведения в определенных обстоятельствах. Охотником на сбойных роботов может стать и человек. В фильме «Бегущий по лезвию бритвы» был показан отряд особо тренированных агентов, в который входил и главный герой в исполнении Харрисона Форда; эти агенты владели специальными техниками, необходимыми для выявления и нейтрализации роботов-преступников. На постепенное восхождение роботов по эволюционной лестнице разума уйдет много десятилетий тяжкой работы, поэтому появление разумных роботов не станет внезапным. Человечество невозможно будет захватить врасплох и сразу же загнать в зоопарки, как зверей. Сознание, в моем понимании, — это скорее процесс, ход которого можно оценивать, а не внезапное эволюционное событие, и восхождение роботов по шкале сознания будет идти медленно и постепенно и займет не один десяток лет. В конце концов, на развитие человеческого сознания у матери-природы ушли миллионы лет. Так что для человека не станет неожиданностью, когда Интернет внезапно «проснется» или роботы ни с того ни с сего начнут самостоятельно планировать собственное будущее. Именно такой подход предпочитал писатель-фантаст Айзек Азимов. В его произведениях каждому роботу еще на заводе намертво встраивали в сознание три непреложных закона, не позволявших им выйти из-под контроля. Цель знаменитых трех законов робототехники, придуманных им, состояла в том, чтобы не дать роботам нанести вред человеку или себе самим. (Если очень коротко, эти три закона гласят, что робот не может нанести вред человеку, что он должен повиноваться человеку и что он должен заботиться о себе, именно в этом порядке.) (Даже азимовские законы не избавляют от проблем в тех случаях, когда ситуация порождает противоречие между тремя законами. Представьте, к примеру, что кому-то удалось создать благожелательного робота. Что произойдет, если человечество вдруг сделает губительный выбор и поставит под угрозу собственное существование? Дружественный робот может решить, что необходимо взять под контроль правительство и не дать человеку нанести себе вред. Именно с этой проблемой столкнулся Уилл Смит в кинофильме «Я, робот», когда центральный компьютер решил, что для спасения человечества «некоторыми людьми необходимо пожертвовать, а от некоторых свобод отказаться». Чтобы не позволить роботам поработить человечество и спасти его, некоторые предлагают дополнить законы робототехники еще одним, нулевым законом: робот не может нанести вред человечеству или поработить его.) Однако многие ученые склоняются к варианту так называемого «дружественного ИИ», при котором подразумевается, что человек с самого начала сделает роботов доброжелательными созданиями. Поскольку именно мы — создатели роботов и именно мы будем их разрабатывать, ничто не помешает нам сделать так, чтобы роботы с самого начала занимались только полезными и добрыми делами. Понятие «дружественный ИИ» или «дружественный сверхразум» ввел в обращение Элиезер Юдковский (Eliezer Yudkowsky), один из основателей Института сингулярности по искусственному интеллекту. Дружественный ИИ несколько отличается от законов Азимова, которые предполагается навязывать роботам, возможно против их воли. (Более того, законы Азимова, привнесенные в сознание роботов извне, могут побудить их поступить наоборот и заняться поиском хитрых путей их обхода.) В дружественном ИИ, напротив, ничто не мешает роботам убивать и безобразничать. Здесь нет законов, насаждающих искусственную мораль. Скорее можно сказать, что эти роботы с самого начала придуманы так, что для них естественным является желание помогать людям, а не губить их. Они сами выбирают путь добра. Такой подход породил новое направление, получившее название «социальной робототехники». Его цель — наделить роботов качествами, которые помогут им безболезненно войти в человеческое общество. Ученые компании Hanson Robotics, к примеру, утверждают, что единственная задача их исследований — разработка роботов, которые «эволюционируют в социально разумные существа, способные любить и достойные места в расширенной человеческой семье». Проблема с подобными подходами в том, что больше всего — и намного! — денег в разработки по искусственному интеллекту вкладывают военные, и роботы, создаваемые по их заказам, специально предназначены для выслеживания и убийства людей. Несложно вообразить себе будущих роботов-солдат, задачей которых будет распознавать солдат противника (людей) и уничтожать их с безошибочной эффективностью. При этом придется принимать чрезвычайные, невообразимые меры, чтобы гарантировать, что военные роботы не обернутся против своих хозяев. К примеру, беспилотный роботизированный самолет Predator управляется дистанционно, так что все его действия постоянно контролируют люди, но когда-нибудь самолеты-беспилотники, вероятно, станут автономными и получат возможность самостоятельно выбирать и поражать цели. Сбой в системе управления такого автономного самолета может вызвать катастрофические последствия. В будущем, однако, все большая доля финансирования в разработку роботов будет поступать из гражданского коммерческого сектора, особенно в Японии, где назначение роботов — помогать, а не разрушать. Если такая тенденция сохранится, дружественный ИИ действительно может стать реальностью. В этом сценарии в робототехнике со временем возьмут верх потребительский сектор и рыночные силы, так что вкладывать деньги в дружественный ИИ станет чрезвычайно выгодно.
Date: 2015-05-08; view: 668; Нарушение авторских прав |