| | „его боитс€ создатель искусственного интеллекта
Ќаука

„его боитс€ создатель искусственного интеллекта

„его боитс€ создатель искусственного интеллекта
—оздава€ »», инженер переживает, не пойдет ли его детище против него же.

 ак человек, занимающийс€ исследовани€ми искусственного интеллекта, € часто сталкиваюсь с мнением о том, что многие люди бо€тс€ »» и того, во что он может превратитьс€. Ќа самом деле неудивительно, если смотреть с позиции истории человечества, при этом обраща€ внимание на то, чем пичкает нас индустри€ развлечений, что люди могут бо€тьс€ кибернетического восстани€, которое заставит жить нас на изолированных территори€х, а других превратит в Ђћатрицеподобныйї вид человеческих батареек, информирует  иевские ¬едомости со ссылкой на Health.

» все-таки дл€ мен€, гл€д€ на все эти эволюционные компьютерные модели, которые € использую в разработках »», сложно думать о том, что мои безобидные, чистые как слеза младенца создани€ на экране моего компьютера однажды смогут превратитьс€ в монстров футуристической антиутопии. Ќа самом ли деле мен€ можно назвать Ђразрушителем мировї, как однажды сожалел и говорил о себе ќппенгеймер после того, как возглавил программу по созданию €дерной бомбы?

¬озможно, € бы прин€л такую славу, а может критики моей работы все-таки правы? ћожет, мне действительно пора прекратить избегать вопросов о том, какие страхи в отношении искусственного интеллекта имеютс€ у мен€ самого, как у эксперта в области »»?

—трах перед непредсказуемостью

„его боитс€ сам разработчик »» в своем творении

 омпьютер HAL 9000, ставший мечтой научного фантаста јртура „арльза  ларка и воплощенный в жизнь кинорежиссером —тэнли  убриком в его ленте Ђ осмическа€ одиссе€ 2001 годаї, €вл€етс€ отличным примером системы, давшей сбой из-за непредвиденных обсто€тельств.

¬о многих сложных системах Ц “итанике, космическом шаттле NASA и „ернобыльской €дерной электростанции Ц инженерам приходилось объедин€ть между собой множество компонентов. ¬озможно, архитекторам этих систем было отлично известно, как каждый ее элемент работает по отдельности, но они недостаточно хорошо понимали, как все эти компоненты будут работать вместе.

–езультатом стали системы, которые так никогда до конца не были пон€ты их же создател€ми, что и привело к известным последстви€м. ¬ каждом случае Ц корабль утонул, два шаттла взорвались, а почти вс€ ≈вропа и части јзии столкнулись с проблемой радиоактивного загр€знени€ Ц набор относительно небольших проблем, но по случайности произошедших одновременно, создали катастрофический эффект.

я прекрасно могу себе представить, как мы, создатели »», можем прийти к аналогичным результатам. ћы берем последние наработки и исследовани€ в когнивистике (наука о мышлении, Ч прим. ред), переводим их в компьютерные алгоритмы и добавл€ем все это в существующие системы. ћы пытаемс€ разработать »» без полного понимани€ своего собственного интеллекта и сознани€.

“акие системы, как Watson от IBM или Alpha от Google, представл€ют собой искусственные нейронные сети, обладающие впечатл€ющими вычислительными возможност€ми и способны справл€тьс€ с действительно сложными задачами. Ќо пока единственное, к чему приведет ошибка в их работе, будет результатом проигрыша в интеллектуальной игре ЂJeopardy!ї или упущенной возможностью победить очередного самого лучшего в мире игрока в настольную логическую игру √о.

Ёти последстви€ не нос€т мирового характера. Ќа самом деле худшее, что может случитьс€ с людьми в этом случае, так это кто-то проиграет некоторую сумму денег на ставках.

“ем не менее архитектура »» становитс€ все сложнее, а компьютерные процессы Ч все быстрее. ¬озможности »» со временем будут только увеличиватьс€. ј уже это приведет нас к тому, что мы начнем возлагать на »» все больше ответственности, даже несмотр€ на возрастающие риски непредвиденных обсто€тельств.

ћы прекрасно осознаем, что Ђошибки Ц это часть человеческой природыї, поэтому дл€ нас будет просто физически невозможно создать по-насто€щему безопасную во всем систему.

—трах перед неправильным использованием

ћен€ не очень беспокоит непредсказуемость последствий в работе »», который € разрабатываю, использу€ дл€ этого подход так называемой нейроэволюции. я создаю виртуальные среды и засел€ю их цифровыми существами, дава€ их Ђмозгамї команды по решению задач возрастающей сложности.

—о временем эффективность решени€ задач этими существами возрастает, эволюционирует. “ех, кто справл€етс€ с задачами лучше, всех отбирают дл€ репродукции, создава€ на их базе новое поколение. „ерез многие поколени€ эти цифровые создани€ развивают когнитивные способности.

Ќапример, пр€мо сейчас мы делаем первые шаги в развитии машин до уровн€ выполнени€ простых навигационных задач, прин€ти€ простых решений или запоминани€ пары битов информации. Ќо скоро мы добьемс€ развити€ машин, которые смогут выполн€ть более сложные задачи и будут обладать гораздо более эффективным общим уровнем интеллекта. Ќашей финальной целью €вл€етс€ создание интеллекта человеческого уровн€.

¬ ходе этой эволюции мы постараемс€ обнаружить и исправить все ошибки и проблемы. — каждым новым поколением машины будут лучше справл€тьс€ с ошибками, по сравнению с предыдущими. Ёто повысит шансы на то, что мы сможем определить все непредсказуемые последстви€ в симул€ци€х и исключить их еще до того, как они смогут реализоватьс€ в реальном мире.

≈ще одна возможность, которую дает эволюционный метод развити€, заключаетс€ в наделении искусственного интеллекта этикой. ¬полне веро€тно, что такие этические и моральные особенности человека, как надежность и альтруизм, €вл€ютс€ результатом нашей эволюции и фактором ее продолжени€.

ћы можем создать искусственную среду и наделить машины способност€ми, позвол€ющими им продемонстрировать доброту, честность и эмпатию. Ёто может стать одним из способов убедитьс€ в том, что мы разрабатываем более послушных слуг, нежели безжалостных роботов-убийц. “ем не менее, несмотр€ на то что нейроэволюци€ может сократить уровень непредвиденных последствий в поведении »», она не может предотвратить неправильное использование искусственного интеллекта.

 ак ученый, € должен следовать своим об€зательствам перед правдой и сообщать о том, что обнаружил в рамках своих экспериментов независимо о того, нрав€тс€ мне их результаты или нет. ћо€ задача заключаетс€ не в том, чтобы определ€ть, что мне нравитс€, а что нет. ¬ажно только то, что € могу обнародовать свою работу.

—трах перед неправильными социальными приоритетами

Ѕыть ученым Ц не значит утратить человечность. я должен на каком-то уровне вновь обретать св€зь со своими надеждами и страхами. явл€€сь морально и политически мотивированной личностью, € должен учитывать потенциальные последстви€ своей работы и ее возможный эффект на общество.

 ак ученые и как представители общества, мы до сих пор не пришли к четкой идее о том, чего именно хотим получить от »» и чем он должен стать в итоге. „астично это, конечно, св€зано с тем, что мы до сих пор до конца не понимаем его потенциал. Ќо все же нам необходимо четко осознать и решить, что мы хотим получить от действительно продвинутого искусственного интеллекта.

ќдна из самых больших сфер, на которую люди обращают внимание в разговоре об »», Ц это трудоустройство. –оботы уже выполн€ют за нас сложную физическую работу, например, собира€ и сварива€ между собой части автомобильных кузовов. Ќо однажды настанет день, когда роботам поручат выполнение когнитивных задач, то есть им поручат то, что раньше считалось исключительно уникальной способностью самого человека. —амоуправл€емые автомобили смогут заменить шоферов такси; самоуправл€емые самолеты не будут нуждатьс€ в пилотах.

¬место того чтобы получать медицинскую помощь в пунктах неотложной помощи, заполненной всегда уставшим персоналом и докторами, пациенты смогут проводить обследовани€ и узнавать диагнозы с помощью экспертных систем с моментальным доступом ко всем медицинским знани€м. ’ирургические операции будут проводитьс€ неподверженными к усталости роботами, с идеально Ђнаметанной рукойї.

ёридические консультации можно будет получить из всеобъемлющей правовой базы. «а советами по инвестици€м будем обращатьс€ к экспертным системам рыночного прогнозировани€. ¬озможно, однажды вс€ человеческа€ работа будет выполн€тьс€ машинами. ƒаже мою работу можно будет делать быстрее благодар€ использованию большого числа машин, неустанно исследующих, как сделать машины еще умнее.

¬ реали€х нашего нынешнего общества автоматизаци€ уже заставл€ет людей покидать свои рабочие места, дела€ богатых владельцев таких автоматизированных машин еще богаче, а остальных Ц еще беднее. Ќо это не научна€ проблема. Ёто политическа€ и социоэкономическа€ проблема, которую должно решать само общество.

ћои исследовани€ этого не измен€т, однако мои политические устои, вместе с человечностью, возможно, приведут к обсто€тельствам, при которых »» сможет превратитьс€ в исключительно полезную функцию, вместо того чтобы сделать разрыв между одним процентом мировой элиты и остальными нами еще шире.

—трах перед катастрофическим сценарием

ћы подобрались к последнему страху, нав€занному нам безумным HAL 9000, “ерминатором и любым другим злодейским сверхинтеллектом. ≈сли »» продолжит развиватьс€ до тех пор, пока не превзойдет человеческий интеллект, станет ли искусственна€ сверхинтеллектуальна€ система (или набор таких систем) рассматривать человека в качестве бесполезного материала?  ак мы сможем оправдать свое существование перед лицом сверхинтеллекта, способного делать и творить то, что не будет способен ни один человек? —можем ли мы избежать участи быть стертыми с лица «емли машинами, которых мы же и помогли создать?

ѕоэтому самый важный вопрос в таких обсто€тельствах будет звучать так: зачем мы будем нужны искусственному сверхинтеллекту?

—лучись така€ ситуаци€, € бы, наверно, сказал, что € хороший человек, который даже внес вклад в создание этого сверхинтеллекта, перед которым сейчас нахожусь. я бы воззвал к его состраданию и сопереживанию, чтобы сверхинтеллект оставил мен€, такого сострадающего и сопереживающего, в живых. я бы также добавил, что само по себе многообразие видов обладает ценностью и ¬селенна€ настолько велика, что существование человеческого вида в ней на самом деле весьма незначительно.

Ќо € не могу говорить за все человечество, поэтому за нас всех мне будет сложно найти веский аргумент. ѕросто, когда € смотрю на нас всех, € действительно вижу, что мы много чего сделали и делаем неправильно. ¬ мире царит ненависть друг к другу. ћы идем войной друг на друга. ћы несправедливо распредел€ем еду, знани€ и медицинскую помощь. ћы загр€зн€ем планету. ¬ этом мире, конечно, есть множество хороших вещей, но, если взгл€нуть на все те плохие вещи, что мы сотворили и продолжаем творить, будет очень сложно подобрать аргумент в поддержку нашего дальнейшего существовани€.

  счастью, нам пока не придетс€ оправдывать свое существование. ” нас еще есть врем€. ќт 50 до 250 лет, в зависимости от того, насколько быстро будет развиватьс€ искусственный интеллект. ћы, как вид, обладаем возможностью собратьс€ всем вместе и найти хороший ответ на вопрос, почему сверхинтеллект не должен будет стереть нас с лица планеты.

Ѕудет очень сложно решить этот вопрос. ¬едь говорить, что мы поддерживаем многообразие и этнокультурные различи€, и делать это Ц это совершенно разные вещи.  ак и говорить о том, что мы хотим спасти планету, и успешно с этим справл€тьс€.

¬се мы, будь то кажда€ отдельна€ личность или общество в целом, должны подготовитьс€ к катастрофическому сценарию, использу€ то врем€, чтобы быть готовыми показать и доказать, почему наши творени€ должны позволить нам продолжить существовать. Ћибо же мы можем просто продолжать слепо верить, что такое развитие событий невозможно, и просто прекратить вести разговоры на эту тему.

„итайте также: ¬  итае похвалились новыми успехами в разработке искусственного интеллекта

ќднако независимо от того, какую физическую опасность может представл€ть дл€ нас сверхинтеллект, не следует забывать, что представл€ть опасность он будет еще и политическую, а также экономическую. ≈сли мы не найдем способа повысить наш уровень жизни, то в конечном итоге просто подпитаем капитализм чернорабочим искусственным интеллектом, который будет служить лишь горстке избранных, обладающих всеми средствами производства...

≈ще по теме

¬ышла из-под контрол€: Facebook отключил систему искусственного интеллекта

¬ышла из-под контрол€: Facebook отключил систему искусственного интеллекта

1-08-2017, 00:16
 итай за€вил о прогрессе в разработке искусственного интеллекта

 итай за€вил о прогрессе в разработке искусственного интеллекта

11-03-2017, 13:58
ќснователь SpaceX предупредил об опасности искусственного интеллекта

ќснователь SpaceX предупредил об опасности искусственного интеллекта

14-02-2017, 22:22
—тивет ’окинг назвал опасности искусственного интеллекта - –усска€ планета

—тивет ’окинг назвал опасности искусственного интеллекта - –усска€ планета

21-10-2016, 15:19
—тивен ’окинг рассказал о роли искусственного интеллекта в будущем человече ...

—тивен ’окинг рассказал о роли искусственного интеллекта в будущем человече ...

21-10-2016, 00:47
—тоит ли бо€тьс€ искусственного интеллекта?

—тоит ли бо€тьс€ искусственного интеллекта?

20-02-2016, 10:51
Ќаука

–едактор раздела Ќаука
Ќаписать на e-mail