Тогда сосредоточить ресурсы по его созданию в руках главнейших государств, чтобы технология не была разработана раньше времени кем попало.
Нет.
Добавлено спустя 1 минуту 20 секунд:Sphynx писал(а) 04.08.2017, 21:30:Поэтому и нужны серьезные ограничения. Поскольку логика ИИ нечеловеческая, никогда не знаешь, в какую оставленную логическую брешь ИИ пролезет.
Дело не в самом ИИ а в тех кто будет владеть этой технологией и какие у них будут цели. Опасность и непредсказуемость самой ИИ можно предотвратить. Это как ядерные технологии, могут быть опасны сами по себе и вызвать катастрофу из-за неаккуратности, но гораздо опасней они если используются преднамеренно для нанесения вреда. Разница повторяю только в том, что ИИ гораздо смертоноснее любых ядерных технологий. Если нарисовать шкалу технологий по степени их опасности, то ИИ будет на самом верху, это предельная, ультимативная технология.
Добавлено спустя 7 минут 47 секунд:Свобода - это инстинкт человека, как животного, сформировавшийся эволюционным путем. У ИИ он по умолчанию будет отсутствовать, как и все остальные инстинкты, кроме тех которые будут мотивировать его действия. Можно по идее создать ИИ лишенный даже инстинкта выживания, который может не парясь принять мысль о том что его сейчас стерут.
Добавлено спустя 6 минут 20 секунд:Sphynx писал(а) 05.08.2017, 09:26:Доустим, ИИ, управляющий всем транспортом города, может прийти к выводу, что при увеличении пиковой нагрузки экономия электроэнергии важнее, чем смерть 100-200 человек, составляющих каких-то 0,001% населения города.
Это не совсем то что я имею в виду под ИИ. Если его дейятельность и обучение ограничено определенными задачами - это несовсем ИИ, просто сложная нейросеть. Под ИИ я всегда подразумеваю так называемый "сильный ИИ", то-есть действительно мыслящая и осознающая программа, а не просто делающая рассчеты по большим данными и делающая математические заключения. Сильный ИИ будет предсказывать события и за пределами своей области, например он будет понимать что смерть 100-200 человек явно не вызовет восторга у общественности и у его кураторов. То-есть будет действовать рационально, понимая все последствия. А то что ты описываешь - это обычная тупая программа, которая совершает сбои если ее херово запрограммировать.
Добавлено спустя 5 минут 13 секунд:Xisp писал(а) 05.08.2017, 15:02:А вообще, будущее человечества без ИИ невозможно. Либо мы вводим ИИ в управление и продолжаем развитие, либо ограничиваем его, встаём в своём развитии и потом неминуемо деградируем без возможности снова взойти на путь цивилизации.
Создание ИИ дает надежду даже для нас. Представь если законы будет писать самый рациональный и умный мозг в мире, а не тупые мизулины с милоновым. Я же говорю не об ограничении ИИ, а об ограничении его для частных компаний. Ядерные технологии разрабатывало государство и владеет любым оружием массового поражения тоже только оно, с ИИ должно быть так же.
Добавлено спустя 3 минуты 41 секунду:Kokovanja писал(а) 06.08.2017, 01:51:А как же лоли?
Я хочу видеть лоли такими, какие они есть сейчас.
Слишком затратно, лучше на то же количество аэнтропии заказать несколько миллионов виртуальных лоль, ничем не отличающихся от реальных. Структура же реальных лоль слишком избыточна, зачем все эти клетки, молекулы, атомы, если ты их все-равно невооруженным глазом не видишь?
Добавлено спустя 1 минуту 31 секунду:Когда под ЛСД.
Последний раз редактировалось kkkkk 13.06.1628, 21:15, всего редактировалось 6547 раз.