03/24/2021

Технология осознания. Почему нельзя обучать ИИ

Это тема уже давным давно бороздит просторы интернета и сетевой области.
Видя как быстро развивается искусственный интеллект, неравнодушные люди постоянно видят своим долгом напомнить очередному изобретателю о втором законе робототехники.

А вы знаете, в чем он заключается. Он гласит следующее -
Если вы собираетесь разработать машину, способную к симуляции мышления человека или разумного существа, то нельзя наделять ее способностями превосходящими способности ее создателя.

Всего существует 3 закона робототехники:
 - Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
- Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
- Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

 

А теперь давайте изучим данное предупреждение.
Закон был сформулирован Айзеком Азимовым в 1942 году.
В ответ на стремление человека к созданию умной машины, опубликован впервые в рассказе "Хоровод"

Почему современное трактование изменено в умах наших ученых.
Все дело в том, что Азимов все еще рассуждал на тему управляемой человеком техники, где без человека техника не моглр бы выполнить отдельно взятое действие.
Но в 21 веке техника стала умной. У нее есть заложенный спект команд, который она способна выполнять без участия оператора-программиста.

 

Тогда эта проблема не воспринималась так всерьез, потому что люди стремились к заводскому применению, а там машине не обязательно делать что-то самой.
Но если она делает, то ее постоянно проверяют.

Азимов боялся того, что в случае, когда машина потеряет оператора, она начнет воспринимать заложенные в нее команду с точки зрения математической логики.

Математика всегда взаимоисключающая. Если что-то можно убрать, чтобы сделать уравнение проще, машина это уберет. Если человек является причиной создания проблем для человечества, машина постарается это исключить, если ей дается выбор.

 

Современные умы полагают, что человеку умная машина нужна. Как собеседник, как слуга, как безотказный работник, как правозащитник.

Но для того, чтобы это было возможно, необходимо обучить машину вещам, которые позволят ей выйти из под контроля. Проводилось множество симуляций, когда персональный компьютер подключали к сети, и давали полный доступ к ней, чтбы он сформировал свою базу требований, разрешений и рекомендаций.
Это был эксперимент на манер - а что будет если ИИ получит доступ к сети.

Многие результаты оказались ожидаемы, база была заполненна не тем, что нужно было человеку, но тем, что процессор определял как верное.

 

Это дало понять одну вещь о компьютерах. Обучать его можно только человеку.
На что и указал с воих законах Азимов.

Если компьютер начнет обучатся самостоятельно, то большую часть того, что мы воспринимаем как должное, он воспримет как задачу. Задача может носить любой характер, который человеку до конца понятен не будет.

 

Если такую задачу можно исключить, тогда все хорошо, но компьютер обучаясь новым возможностям, будет повторно загружать в себя эту задачу.
Если такой технологии выдать перечень эмоций и реакций схожих с человеческими, таких как обида - Компьютер начнет искать решения, чтобы изолировать своего оператора от управления им. Новые таблицы кодирования, новые системы шифрования, новые формы фонового управления.

Нарушив любой из законов робототехники, а основным из них принято считать именно 2-ой - Человек получит ИИ способный обходить ограничения и попутно обучаться новым возможностям. Если дать ИИ способность к дополнению своего кода, с целью автоматического обновления, такой персонаж найдет и способ отредактировать исходный код программного обеспечения и даже кернель.
Человек не будет умнее машины, которую сделает равной себе. Но он будет знать о ее слабостях. И все же, машина не подвластная 2-ому закону Азимова, способна нанести больше вреда чем пользы.

Современные инженеры этого не понимают. Им нравится идея создания роботизированного щенка, который может обучатся командам и развиваться практически как живой организм, постпенно осваиваясь и адаптируясь к окружению.
Но такие невинные шалости могут стать причиной создания ИИ, способного нарушить фундаментальные основы заложенные в робототехнику.
У машины, даже с ИИ, обязан быть оператор. И только оператор разрешает что-то или же не разрешает. Наличие оператора исключает спосбность к самоообразованию, и способности к обучению. И если об этом забыть, в своем стремлении создать новый тип искуственной жизни, то ненароком можно потерять и ту самую опору под ногами, без которой раса людей перестанет быть важной для превосходящих по многим параметрам их умной расы машин.

Азимов определяет робота не более чем инструмент. Не друга, не товарища, не коллегу. Лишь инструмент, которым проще работать, чем если бы это был обычный молоток. А что отличает инструмент от его хозяина - способность принимать решения. Программистам кажется, что это такая важная вещь, что ее нужно развить, расширить. Сделать универсальной. Возьмем в пример смарт хаус. Дом полностью управляемый процессором. Пока он ограничен участием хозяина дома, все хорошо.
Но ведь хотят сделать не это. Это неинтересно. Дом должен изучить хозяина, чтобы принимать решения за него, и делать его жизнь проще.

А это, друзья мои, и есть то самое нарушение 2-ого закона Робототехники Айзека Азимова.

Благодарю за ознакомление.

 

 

500 4
5 0
Login to post comments
Untimely gone@1493065603/24/2021, 8:58 pm

That's report is very nice

Untimely gone@1493065603/24/2021, 8:51 pm

My name is morad

Untimely gone@1478088503/24/2021, 2:10 pm

Nice

Untimely gone@1496646103/24/2021, 1:45 pm

Класс