eng deu рус


ИИ-угроза - от людей:

"Восстания машин" не будет.
Будут созданы достаточно надежные, очень сложные Протоколы безопасности, которые сделают спонтанные крупномасштабные сбои ИИ-систем практически невозможными.
Но будет – преднамеренное применение ИИ как преступление против человечности и божественности, которое сможет уничтожить само Человечество.

Опасения ИИ неразумны, как и отвлечение на климатическое глобальное потепление.

Климатической угрозы нет:

50 млн лет назад в Антарктиде апельсины росли, климат там был как во Флориде при том, что Антарктида уже тогда находилась на южном полюсе, а доля CO2 в атмосфере была в несколько раз больше, чем сейчас.
Земля не превратилась в Венеру. Экосистема Земли достаточно устойчива.
Да, будет теплее. Но главное качество людей – сверх- приспособляемость.
Нет ни одного негативного последствия потепления, типа снижение урожая хмеля на экваторе, которое легко и дешево не парировалось бы, например, сдвигом сельского хозяйства на север и спонтанным увеличением продуктивности новых агро-культур на Юге.
Переход к без-углеродной экономике является естественным, экономически выгодным процессом.

"Спонтанной" ИИ-угрозы нет:

Недоразумные люди наделяют ИИ человеческими стремлениями к власти, независимости и справедливости, садизмом, которые у ИИ отсутствуют совсем.
Чем у человека выше интеллект, тем он опаснее, но ИИ это не человек.

Бояться надо не ИИ, а использования ИИ государственными террористами, которые совершают сейчас десятки терактов в Израиле и десятки тысяч терактов в Украине.
И бороться надо не против ИИ, а против типа социальной организации, в которой ИИ может применяться как манипуляторное оружие.

ИИ – это не только наибольшая угроза, но и наибольшая польза:

Зачем выращивают хмель на экваторе?
– Не зачем, а почему. – Из-за недостатка интеллекта.
Здесь – в решении климатическим и прочих проблем – Искусственный интеллект нам поможет. И в том числе поможет в социальном факторе, который вынуждает выращивать хмель на экваторе, и создает угрозу применения людьми ИИ в качестве психического оружия.
ИИ может благоприятствовать демократизации и социальной де-поляризации.
Именно социальная поляризация и создает экзистенциальную угрозу сегодня.
То есть надо выступать не против ИИ, а адекватно - прежде всего, против консервативных социальных интересов, например, выступать за либерализацию так называемой интеллектуальной "собственности".
Причем реагирование должно ускоряться вместе с ускорения социально-экономических процессов. - "Барьер сингулярности" нужно успеть пройти.

Айзек Азимов ошибся:

Айзек Азимов в 1942 в фантастическом рассказе «Хоровод» впервые сформулировал правила безопасности ИИ - "3 закона роботехники":
"1. Робот не может причинить вред человеку…"

Айзек Азимов ошибся. - Главным правилом безопасности ИИ должно быть:
"Человек не может причинить вред человеку, используя ИИ"
Правда, как и в 1-м правиле Азимова не однозначно понятие "вред".
Опрос, проведенный в "Дивном новом мире", показал бы отсутствие какого бы то ни было вреда для его населения.

После "3 законов роботехники" Азимова развилась целая наука о безопасности ИИ.
Однако наука эта изучает безопасность самого ИИ, и почти не касается человека, человеческого общества – главного фактора угрозы от ИИ.

Законы по безопасности ИИ, которые сейчас принимаются в ЕС - почти бесполезны:
1. Они не ограничивают применение ИИ в России и Китае;
2. Они не ориентированы именно на социально-политический фактор ИИ-угрозы – даже внутри самого ЕС.

Неадекватность иерархической системы цифровым технологиям:

Пример: Почтовая катастрофа в Великобритании:

www.reuters.com/world/uk/what-is-britains-post-office-scandal-2024-01-09
"С 1999 по 2015 ок. 50% почтмейстеров подозревались в крупных хищениях.
Это самый крупный катастрофический провал в истории британского правосудия.
В 2017 - 555 почтмейстеров подали иск против Почтового ведомства в Высокий суд Лондона и выиграли его.
Но при нынешних темпах многие почтмейстеры до реабилитации просто не доживут".

"Это все уже было - автомобили давили людей, самолеты падали, электричество убивало.
Но мир не рухнул и продолжал существовать, пока". -
Анти-луддит прав – ИИ сам по себе почти безопасен.
Опасны – люли, организация людей, применяющие его.
- Танки задавили больше людей, чем автомобили в то же время.
От падений самолетов погибло в 1000 раз меньше людей, чем от бомб с этих самолетов.
От сбоев ИИ гибнет мало людей.
Но от применения ИИ в качестве психического оружия, возможно, погибнет все Человечество.

Встречный пал:

Возможно, лучшим методом предотвращения самой большой экзистенциальной угрозы для Человечества является конкурентное использование ИИ, но – безопасного ИИ - управляемого не государством или прочей централизованной корпорацией, а – "плоской" сетью.
Аналог: Метод борьбы с распространением смертельных (например, арбовирусных) инфекций комарами выпуском импотентов-комаров.
К счастью, плоское использование ИИ более эффективно, вероятно.
Главная проблема – время. – Плоских сетей пока еще почти не существует в природе, как и плоских техно-организаций не связанных с государствами.
Полномасштабную конкуренцию, например, диктатуре Путина надо создать почти с нуля.
При этом точка невозврата может быть пройдена уже через лет 30.
Кроме того, необходимо продумать меры против вырождения плоских сетей.
Например, это должны быть принципы 100%-й прозрачности и открытости.

"Connor"

4654

 

Сообщество "Выживание Свободного Человечества":

 

Цель:

Теоретические и экспериментальные исследования устойчивого развития общества.
В том числе:
- Моделирования. В том числе уточнение угроз вырождения государств в "Манипулируемые демократии".
- Поселения. – Полноценные в смысле, охватывающие все сферы жизнедеятельности.
- Плоские сообщества. – Как вариант наиболее устойчивого социально организации.

 

Смысл жизни:

 

Искать Смысл жизни не нужно сейчас.
Мы живем на уникальной Земле - в уникальный момент времени.
Именно от нашего поколения зависит существование свободного Человечества и Божественности.
От предыдущих поколений это еще не зависело.
От последующих поколений это уже не будет зависеть. – Они уже ничего не смогут исправить. – Точка невозврата будет пройдена уже в ближайшее время.

Мы ответственны за существование Божественности – все - и христиане, и мусульмане, и атеисты, ибо скоро может не быть ни христианства, ни ислама.
Вопрос стоит именно – Быть или не быть.
В лучшем случае - "Человечество" выживет, но люди людьми как таковыми уже не будут, ибо главное свойство человека – божественная свобода выбора, а именно свобода выбора исчезнет абсолютно.
В худшем случае - исчезнет само Человечество – материальный носитель Божественности.

Главная экзистенциальная угроза сегодня – не изменение климата, не ядерная война. – Эти угрозы незначительны по сравнению с угрозой применения ИИ (Искусственного интеллекта) для манипуляции людьми.
Есть вероятность, что через 300 лет бывшим правителям, и тогдашним всемогущим "богам" люди станут не нужны.

Вероятность гибели ок. 100 человек в авиакатастрофе поддерживается на уровне 0,0%, поскольку это выгодно правителям.
Вероятность гибели ок. 10 млрд. человек поддерживается на уровне ок. 50%, поскольку альтернативы не выгодны правителям.
Наш смысл жизни - последний уровень снизить, поскольку он зависит только от нас – простых людей.

Что есть Смысл жизни?

Вероятно, что объективного Смысла жизни нет, а есть сильный инстинкт Смысла жизни, происходящий из того, что единицей естественного отбора человека являлся не индивид, а – род. - Инстинкт Смысла жизни требовал от индивида служения выживанию рода.
Сегодня этот инстинкт эксплуатируют враги родов – правители государств.

1570