Антропоморфизм Бострома/ Bostrom:
Современные ученые наделяют желаниями компьютеры:
Видение Bostrom-а похоже на представление об "жизненной силе" гомункулуса, или о полете на Луну - в начале 20-го века, – соорудил тайком в гараже ракету, и она сама полетит.
С 1-й стороны, Рекурсивное самосовершенствование программ реализовать очень просто.
Вероятно, его уже сделали.
Мнение Bostrom-а по-видимому не основано на экспериментальных данных.
А я еще 20 лет назад сделал программу, которая пишет программы, и даже вносила изменения в себе, правда просто из нескольких заданных вариантов. -
Для рекурсии не нужен супер-компьютер. – Ее вполне можно реализовать в "гараже".
Для рекурсии не нужен ИИ человеческого уровня.
Но и сама по себе рекурсия не родит ИИ.
С 2-й стороны, Путь к эмуляции разума лежит действительно, по-видимому, в направлении рекурсии.
Но рекурсивное самосовершенствование программ – это широкое и большое научное направление. -
Первые самосовершенствующиеся программы будут далеко не разумными, а по-прежнему односторонними, "неадекватными".
То есть будет не одна "сингулярность", а целый ряд самосовершенствующихся программ.
Правда, количество появляющихся таких программ, вероятно, будет нарастать тоже экспоненциально.
С 3-й стороны, Человеческое понимание связано с желаниями:
Человеческие знания являются нечеткими, неоднозначными, "заточенными" под человека.
Понимание смысла человеческих знаний – это проблема бесконечно более сложная, чем, например, распознание предметов на изображении.
Недостаточно дать Рекурсивному-ИИ все знания человечества для того, чтобы он стал разумным.
IQ и для людей плохо подходит, а сравнивать с его помощью компьютерную программу и человека вообще неправомерно.
Разум не-одномерен, это самое сложное явление в природе.
С 4-й стороны, Эмуляция разума связана, по-видимому, еще и с эмуляцией самосознания.
"Самосовершенствующийся" ИИ еще не приводит к Сверх-ИИ.
На один адекватный "Сверх-ИИ" приходится бесконечный "континуум" вырожденных.
Возможно он станет Сверх- интеллектом, но – "сумасшедшим".
Проблема ИИ намного сложнее, требует работы крупных коллективов, и Сингулярность ни с 1-й, ни с 100-й попытки не "полетит".
Вероятность "Фазы скрытой подготовки" Сверх-ИИ Bostrom-а стремится к нулю.
"Сумасшедшие" Сверх-ИИ, конечно тоже опасны, но:
1. Они распознаваемы,
2. Против них вполне могут сделать защиту люди, даже уступающие им почти во всем.
Про ИИ-Шлюзы и нераспространение ИИ:
Bostrom считает, что отключить Сверх-ИИ невозможно, так как он всегда найдет способ получить электро-питание.
Но разум человека отличается от паучьего не только количественно. –
Человек действительно может предусмотреть исчерпывающую, полную защиту, которую обойти невозможно в принципе – любому Сверх-ИИ.
Так же как Сверх-ИИ не сможет обойти законы физики.
С 1-й стороны – никакие ИИ-Шлюзы ничего не удержат:
1. Экспоненциальный рост количества ИИ-программистов,
2. Дешевизна и доступность ресурсов, несравнимые, например, с ядерным оружием.
С 2-й стороны – меры противодействия могут быть эффективны:
1. Шлюзы отделяющие "виртуальный" и физический миры – не на выходе из "виртуальных миров", а - международное соглашение, обязывающее всех производителей оборудования ставить стандартные "сигнализацию" и "предохранители" – на управляющие входы.
Создание замкнутых локальных нано-технологических циклов в принципе инертно и заметно, и требует использования разнообразного макро-оборудования разнесенного географически.
2. Международный "Клуб нераспространения ИИ".
3. Засекречивание, слежка за проявлениями.
Аналог: Генная инженерия патогенных вирусов, тоже быстро дешевеет, но контролируется.
4. "Натравливание" ИИ на подавление чужих ИИ:
1-й задачей для "янки"-Singleton-а будет: "Не допускать распространения ИИ".
А поскольку свои цели Сверх-ИИ Bostrom-а не меняет, и над ними работают минимум 5 институтов, то можно надеяться на защиту от вреда несанкционированного Сверх-ИИ. -
Первые "Сверх-ИИ" будут по прежнему "однобокими", - они не сумеют обмануть людей.
"Сингулярностей" может быть много, и они начнут нарастать тоже экспоненциально.
Когда начнут появляться неадекватные ИИ, то вероятно произойдет паника, спонтанное и быстрое уничтожение оборудования с ЧПУ, подключенного к Сети и всех, кто встанет на защиту "Терминаторов в частной собственности".
А поскольку первые Рекурсивные ИИ появятся в США, то в 2040-х там возможна маленькая 2-я гражданская война.
Чтобы избежать уничтожения частой собственности и расстрела, владельцам ИИ в США надо просто сделать свою собственность открытой, чтобы все видели, что она не делает каких-нибудь "нано-терминаторов".
Это касается и де-монополизации патентного права.
Правда, если "Желтые жилеты" окажутся достаточно разумными, то они могут уменьшить гибель своих детей. (см "«Deliberative structure» and AI security research")
Вероятностный подход:
Необходим вероятностный подход к угрозе, – оценка наиболее вероятных путей, которыми Сверх-ИИ будут становиться действительно "разумными".
В частности:
1. Сверх-ИИ будут "умнеть" не в "скрытой подготовке", а во взаимодействии с людьми, создателями.
2. Наибольшая угроза со стороны Сверх-ИИ тоже связана с взаимодействием с людьми, с Social manipulation, а не с самостоятельными действиями ИИ.
Наиболее вероятную угрозу будет представлять "Singleton" – который:
1. Возникнет не спонтанно, а будет создан для достижения политических целей.
2. Будет воздействовать на людей – тоже психически.
Маловероятно, что гибель человечества будет вызван ИИ делающим скрепки.
Также, вероятно, правительства смогут принять меры безопасности, так что спонтанные Сверх-ИИ не будут являться первоочередными угрозами.
Первоочередную угрозу вероятно будет представлять не Сверх-ИИ сам по себе, а Сверх-ИИ, используемый для политической борьбы.
Первоочередную угрозу будут представлять не враждебный Сверх-ИИ, а враждебные люди.
Перечисленные меры тоже не спасут многоклеточную жизнь на Земле - от политически мотивированного использования ИИ.
Последствием появления ASI будет бессмертие человека. –
Первого из владельцев ИИ, кто в борьбе за жизнь не будет ограничивать себя ничем.
Правда, это будет уже не человек.
ИИ-"оружие" несопоставимо опаснее ядерного.
Но оно будет действовать не физически - не через "терминаторов", а психически – через самих людей. То есть это будет самоубийство – в буквально смысле.
Сумасшествие машин сменится сумасшествием людей.
Правда, и современную войну нельзя назвать разумным поведением тоже.
От ИИ Землю может спасти ИИ:
Путь спасения – ускорение развития ИИ – которым бы пользовались широкие массы населения.
Есть 2 направления спасения жизни, причем 2-е – надежнее и эффективнее:
1. Прямое ИИ- противодействие:
Пусть массовое ИИ будет уступать передовому сверх-ИИ - на порядки. Но возможности сверх-ИИ будут превосходить "демократическое" ИИ - не на порядки, а в худшем случаю – лишь в разы. -
В частности, главный метод воздействия сверх-ИИ – зомбирование людей может быть парирован почти до современного уровня.
2. Политическое противодействие:
Землю погубят не сам ИИ, а ИИ-симбиоты, те, которые сейчас являются владельцами ИИ.
На чем держится власть владельцев ИИ сегодня? – Не столько уже на монополии на насилие и убийства, сколько на монополии - информационной.
Как устранить информационной монополию? – Ускорением распространения ИИ-помощников, позволяющих обойтись без людей-посредников:
- Политических,
- Финансовых,
- Производственных,
- Торговых.
Политическое противодействие – это устранение самой угрозы.
Опережающее развитие "иммунитета", "встречного пала" - "Демократического ИИ" - есть главное направление избегания уничтожения жизни на Земле.
"Демократическое ИИ" – это ИИ, обслуживающий демократические институты общества.
Оптимальный путь – не пытаться сразу извлечь выгоду из рекурсивных алгоритмов,
а, вначале развивать сами инструменты.
A. Необходим и язык программирования:
1. Простой,
2. Более высокого уровня,
3. Минимизирующий свободу творчества.
B. 1-я задача – сама рекурсия. – Само-совершенствование Алгоритма.
Задача должна быть оптимизирована под рекурсию, а не рекурсию для решения каких-то задач.
Цель – исследования Рекурсивных алгоритмов.
Возможен даже подход "Мутаций". -
Алгоритм вносит случайные изменения в себя.
Но оптимален - Средний подход, - с расчетом вероятности жизнеспособности мутаций.
Экспоненциальная гонка выживания:
Началась экспоненциальная гонка выживания.
Распространение ИИ-демократических технологий, например, Блокчейн-анархии - обязано опережать централизованное использование ИИ.
С 1-й стороны, централизация всегда была оперативнее,
У владельцев ИИ есть мощные средства – власть, деньги, спец-службы, и DPI-firewall.
С 2-й стороны, Авторитарные владельцы ИИ довольно глупы, к счастью:
То есть они не только моральные уроды, часто, но и вынужденные интеллектуальные посредственности – в силу служебного положения. -
Сами они не могут давать оптимальные команды своим подчиненным.
Кроме того, скажется фактор неэффективности иерархической системы.
Hanlon’s razor дает некоторую фору.
Для спасения жизни на Земле необходимы:
1. Алармизм:
Паника, конечно, имеет недостатки, но для традиционной просветительской работы нет времени.
"Вакцинация" – создание неполноценных Рекурсивных ИИ с целью привлечения общественного внимания.
2. Международная работа международного института - с элитами. –
Доказательство для истеблишмента:
a. Неизбежности угрозы,
b. Того, что не выживет не только 99% народа, но и 99% элиты.
Необходим индивидуальный подход, - Доказательство гарантированной гибели каждого конкретного президента и его детей.
Необходимо законодательство об открытости оборудования, в том числе с ЧПУ, подключенного к Сети.
Задачи пропаганды "Русского" ИИ:
1. Воспитание: "После нас хоть потоп", "Каждый сам за себя".
2. Внушение, что алармисты Hawking и Musk = параноики-шизофреники.
3. Внушение, что КГБ есть не враг народа и Земли, а, наоборот, главный их попечитель.
Почему Украина?
- Украинцы могут показать русским пример очень хорошей жизни с ИИ-посредниками вместо политических.
SingularityU Kyiv решает - быть или не быть человечеству.
"Последующие миллионы лет человеческих жизней отчаянно глядят на нас в надежде, что мы их не подведем".
8807
|