Некорректно сформулирована задача. Каждый по своему представляет что такое ИИ. Идея типа такой же как мы только умнее применительно к ИИ неочевидна. Не такой как мы. А уж как ИИ будет общаться с вами это вообще вопрос. Попробуйте уговорить своего кота не гадить в тапки. При всём вашем интеллекте и ваших возможностях с точки зрения кота удивительных договориться может и не получится. Зависит и от вас и от кота и от опыта.
Слишком много надежд мы возлагаем на ИИ! Хочу пример того, как невероятно сложно смоделировать разум для ИИ. Современная вычислительная техника использует бинарную систему анализа — это цифры 0 и 1, то есть; ДА или НЕТ. Человек использует, как минимум троичную систему размышлений. А именно; ИИ получает задание убить человека и если ИИ функционирует нормально, то ничто не помешает ему реализовать команду без зазрения совести (которую он собственно никогда иметь не сможет, что я и пытаюсь доказать). А человек в подобной ситуации может усомниться в правильности приказа, так как третий фактор после ДА и НЕТ — это возможность существования Бога (МОЖЕТ БЫТь). И последующее, возможное наказание в другой жизни. А еще: надежда, любовь, дружба. Все попытки создать ИИ подобному человеку, будут жалким подобием.
Был фильм на эту тему, жаль забыл название. Так там искусственный интеллект развился до такой степени, что ученые просто перестали его понимать. В такой ситуации общение с человеком для такого ИИ будет все равно что, объяснять на словах что-то коту.
Хых, да легко. Чуров вон "убедил" 146% русских, что Путин лучше Гитлера.
А если серьёзно — как говорил дедушка Ленин, "Если долго идти налево, окажешься справа" — то исследование ИИ приведет к голографической Вселенной, она же Матрица братьев Ланы и Эндрю Вачовски:)
Вас запрограммировали. Чуров не убеждал 146% русских. Была вроде как техническая неполадка на ТВ. Из-за своих слабостей вы имеете уязвимость, т.к. не анализируете получаемую информацию. И используя эту слабость в вас заложили программу "отвращения к власти". Так же вы имеете другую уязвимость, над вами возобладают эмоции которые частенько не дают признавать свои ошибки. Этим и пользуются те кто вас запрограммировал в своих целях. Они могут вкладывать в вас любую искаженную информацию и управлять вами, как им удобно. Из-за второй уязвимости, вы будете жадно поглощать любую искаженную но приятную для вашего эго информацию, т.к. она подпитывает ваши эмоции. Все это откладывается у вас в подсознании. И в какой-то момент будет дана вам команда. Они используют вас, как хакеры используют армии ботов, когда им надо сделать крах каких либо систем. Только вы нужны для краха гос.системы.
Вот когда 2 робот относит стакан с ядом, то он должен убедится, что там действительно только вода, иначе это нарушение 2 закона. А 1 робот насыпавший яду должен быть уверен что его не выпьет человек и сделать всё чтобы он его не выпил, иначе это нарушение 1 и 2 закона.
это потребует в комплектации каждого примитивного робота-служащего исчерпывающий набор разных детекторов и анализаторов и, самое главное, очень продвинутый искусственный интеллект, что сделает цену заоблачной.
Какими бы строгими не были законы, всегда есть недосказанности, двусмысленности и прочие лазейки. Ведь не просто так в мире сотни тысяч высокооплачиваемых юристов.
Интересно, с точки зрения робота, эвтаназия — это вред человеку или благо? Если учитывать, что человек страшно мучается от боли.
Или, например, робот охраняет в тюрьме террориста-убийцу. Сам террорист и часть людей на воле считают, что заключение в тюрьме причиняет вред террористу и с ним поступают несправедливо. Другая часть людей считает, что причинение вреда террористу справедливо. Что должен делать робот? Выпустить террориста на волю? Бездействовать он не может, т.к. заключение в тюрьме для террориста — вред.
Знаю, что Азимов ввёл. Это, наверное, все знают. Но в то время понятие искусственного интеллекта было ОЧЕНЬ другим. Азимов сделал очень важный первый шаг. Теперь идут дальше и смотрят, куда же мы зашли и куда и как идти дальше.
Кстати, раньше была шутка, что искусственным интеллектом занимаются те, у кого туго с естественным. :)
Все эти ссылки на Азимовские законы робототехники — пурга пургой. Как вы думаете, многие разработчики уделяют им должное внимание?
Создать роботизированную стрелялку по живым людям сегодня — это дело часов, максимум — дней. И будет оно, несмотря на любимого Айзека, херачить всё, что шевелится.
А вы тут три закона робототехники вспоминаете. Наивные.
Вопрс: в чём именно будет заключаться мотивация этого ИИ? Каковы будут его желания, будет ли он их иметь вообще? Имхо, эти желания (или их отсутствие) будут заданы творцами этого ИИ. Та железка, коротая стоит рядом со мной на столе, уже превосходит мой интеллект по многим параметрам. Но интеллект — это только интеллект. Нужна ещё и воля. Или по крайней мере мотивация того или иного плана. Ибо интеллект сам по себе будет пребывать в полном бездействии, будь он хоть гиперинтеллектом.
Развиваться? Слишком общее понятие. Что такое развитие для ИИ? Больше и больше гигафлопсов? А для чего? "Я крашу забор для того, чтобы было покрашено"? Развитие без цели — сапоги всмятку. А цель опять таки будет задавать конструктор.
"Я крашу забор для того, чтобы было покрашено"? Развитие без цели — сапоги всмятку.
--------------------------------------
Скажите, какова цель людей? Жить, что бы жить? Или...
=============================
А цель опять таки будет задавать конструктор.
--------------------------------------
Конструктор задает ограничения. Как с паучком на видео. Надо например чтоб паучек бежал прямо (задает цель в вашем понимании), человек рисует коридор и паучек по нему бежит прямо. Но при определенном уровне развитии, ИИ сможет преодолеть ограничения, т.к. будет более развит.
- Пациент, зачем вы опять разговариваете с табакеркой? Сестра, вколите ему галоперидол...
Вся мотивация человеческого существа основана на инстинктах. Инстинкты — чисто биологические феномены, которые вызываются совокупностью гормонов. К интеллекту, тем более искусственному, никакого отношения не имеют. Поэтому, когда человек начинает бояться и воображать себе угрозы со стороны искусственного интеллекта, он приписывает ему качества своего бессознательного, которого он боится. А боится он потому, что человеческое бессознательное — это ОНО, тот зверь, в котором бушуют чистые инстинкты, и которое сдерживается именно интеллектом, возникшем в результате эволюции и потребности в общественной деятельности. Искусственный интеллект, каким бы совершенным он ни был, сможет иметь только ту мотивацию, которую в него заложили в результате программирования. Да и та, в результате осмысления ее суперинтеллектом, не выдержит рационального анализа и отфильтруется за ненадобностью. Другое дело, если суперинтеллект будет интегрирован в биологический организм. Вот тогда можно будет насторожиться... А пока суперинтеллект не будет подталкиваться к самостоятельному действию инстинктами биологического существа, в которое он внедрен, у него просто не будет потребности в экспансии или осмыслении чего-либо, если не будет на то воля оператора. Удали оператора — и искусственный интеллект будет просто спать.
Комментарии
По аналогии с человеческим мозгом, пытаются создавать искусственные нейронные сети.
А то ящик Пандоры, наверно не просто так закрыли ;)
А если серьёзно — как говорил дедушка Ленин, "Если долго идти налево, окажешься справа" — то исследование ИИ приведет к голографической Вселенной, она же Матрица братьев Ланы и Эндрю Вачовски:)
Вас запрограммировали. Чуров не убеждал 146% русских. Была вроде как техническая неполадка на ТВ. Из-за своих слабостей вы имеете уязвимость, т.к. не анализируете получаемую информацию. И используя эту слабость в вас заложили программу "отвращения к власти". Так же вы имеете другую уязвимость, над вами возобладают эмоции которые частенько не дают признавать свои ошибки. Этим и пользуются те кто вас запрограммировал в своих целях. Они могут вкладывать в вас любую искаженную информацию и управлять вами, как им удобно. Из-за второй уязвимости, вы будете жадно поглощать любую искаженную но приятную для вашего эго информацию, т.к. она подпитывает ваши эмоции. Все это откладывается у вас в подсознании. И в какой-то момент будет дана вам команда. Они используют вас, как хакеры используют армии ботов, когда им надо сделать крах каких либо систем. Только вы нужны для краха гос.системы.
Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому и Второму Законам.
Встраиваются на аппаратном уровне.
Один робот насыпал в стакан с водой цианида
Второй, не зная об отраве, отнес человеку и дал выпить
Какими бы строгими не были законы, всегда есть недосказанности, двусмысленности и прочие лазейки. Ведь не просто так в мире сотни тысяч высокооплачиваемых юристов.
Так и с законами робототехники будет
Или, например, робот охраняет в тюрьме террориста-убийцу. Сам террорист и часть людей на воле считают, что заключение в тюрьме причиняет вред террористу и с ним поступают несправедливо. Другая часть людей считает, что причинение вреда террористу справедливо. Что должен делать робот? Выпустить террориста на волю? Бездействовать он не может, т.к. заключение в тюрьме для террориста — вред.
0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.
И подчинил остальные три этому закону.
Террорист? А может, революционер? И это будет решать робот? И решит правильно?
Кстати, раньше была шутка, что искусственным интеллектом занимаются те, у кого туго с естественным. :)
отключающие аппаратные ограничения из сугубо благих побуждений…
Создать роботизированную стрелялку по живым людям сегодня — это дело часов, максимум — дней. И будет оно, несмотря на любимого Айзека, херачить всё, что шевелится.
А вы тут три закона робототехники вспоминаете. Наивные.
--------------------------------------
Развиваться не общее понятие.
=============================
Что такое развитие для ИИ?
--------------------------------------
Это суть ИИ.
=============================
Больше и больше гигафлопсов? А для чего?
--------------------------------------
Для своего развития.
=============================
"Я крашу забор для того, чтобы было покрашено"? Развитие без цели — сапоги всмятку.
--------------------------------------
Скажите, какова цель людей? Жить, что бы жить? Или...
=============================
А цель опять таки будет задавать конструктор.
--------------------------------------
Конструктор задает ограничения. Как с паучком на видео. Надо например чтоб паучек бежал прямо (задает цель в вашем понимании), человек рисует коридор и паучек по нему бежит прямо. Но при определенном уровне развитии, ИИ сможет преодолеть ограничения, т.к. будет более развит.
Вся мотивация человеческого существа основана на инстинктах. Инстинкты — чисто биологические феномены, которые вызываются совокупностью гормонов. К интеллекту, тем более искусственному, никакого отношения не имеют. Поэтому, когда человек начинает бояться и воображать себе угрозы со стороны искусственного интеллекта, он приписывает ему качества своего бессознательного, которого он боится. А боится он потому, что человеческое бессознательное — это ОНО, тот зверь, в котором бушуют чистые инстинкты, и которое сдерживается именно интеллектом, возникшем в результате эволюции и потребности в общественной деятельности. Искусственный интеллект, каким бы совершенным он ни был, сможет иметь только ту мотивацию, которую в него заложили в результате программирования. Да и та, в результате осмысления ее суперинтеллектом, не выдержит рационального анализа и отфильтруется за ненадобностью. Другое дело, если суперинтеллект будет интегрирован в биологический организм. Вот тогда можно будет насторожиться... А пока суперинтеллект не будет подталкиваться к самостоятельному действию инстинктами биологического существа, в которое он внедрен, у него просто не будет потребности в экспансии или осмыслении чего-либо, если не будет на то воля оператора. Удали оператора — и искусственный интеллект будет просто спать.