Раздел: Просто поделиться

В блог Подписаться на Дзен!
Cat-S

Теория эмерджентности. Хочу обсудить на выходных!

Очень длинные подкасты!

Понимаю, что не у всех хватит сил дослушать (может быть, и вообще ни у кого), я сама слушаю в машине кусками.

Специально нашла на рутубе, т.к. помню, что ютюба у многих нет.

1) [ссылка-1]
2) [ссылка-2]

Идеи Йошуа Баха мой бедный мозг взрывают :)))

Специально не пересказываю идеи, т.к. в процессе пересказа могу наврать и исказить.
Пытаюсь обсудить с мужем, сыном, дочерью - меня поднимают на смех, разговора не получается, увы.

Может, с Вами получится?

Сразу предупреждаю - там очень длинно, очень запутанно, но офигенно интересно.

А у кого есть ютюб - интервью Джефри Хинтона (на рутубе не нашла)

3) [ссылка-3] - популярнее уже, примерно о том же, и так же мозговзрывательно.
17.10.2025 08:18:54,

89 комментариев

Вы не авторизованы. Для отправки сообщения необходимо авторизоваться.

Что означает термин ИИ? Есть нормальное определение? Вот, например, бюрократическое:
“искусственный интеллект - комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их.”
Об этом речь? О ChatGPT? О чем?
18.10.2025 17:58:25, Птица Сыйсу
Cat-S
О том, что у нас по-русски называется "сильный искусственный интеллект", иногда называют "общий искусственный интеллект".

То, чего еще нет, но к чему приглагаются усилия для создания.

Да, решение задач без заранее заданного алгоритма.
Справедливости ради, не все люди обладают такой способностью, решать задачи без заранее заданного алгоритма.
18.10.2025 21:21:43, Cat-S
Об этом говорят и говорят так давно. Даже у Стругацких в мире Полдня, про то как отключили супермашину, когда "она начала себя вести" (Массачусетская машина). Пока этого нет, но есть путаница понятий. Назвают ИИ любую программную систему, пугают людей почем зря.
Когда приспичит, большая часть людей способна сообразить, что делать, даже если не учили. Вообще, алгоритм понятие довольно узкое, его употребление стоит ограничить математикой и програмирванием. Во избежание той же путаницы.
18.10.2025 21:46:37, Птица Сыйсу
Cat-S
Алгоритм понятие информатики. Программирование это частный случай.

До сих пор у нас не было возможности программой качественно писать программы. А сейчас такая возможность появилась. Т.е машина получит возможность переписывать свое ПО.
19.10.2025 09:27:49, Cat-S
Интересно. Уже есть программа, которая может запрограммировать алгоритм Евклида? Или разработать алгоритм Евклида самостоятельно, без поиска его в инете?
19.10.2025 13:44:37, Птица Сыйсу
Нельсон Мандела
Личность человека не состоит из способности решать задачи)) Что именно вам в этом непонятно?)) Решение задач не формирует личность, не создаёт автономное Я, не наделяет самосознанием и самоопределением))

Человеком, мыслящим существом вас делает не умение решать задачи))
18.10.2025 21:33:34, Нельсон Мандела
Cat-S
Забавный пример. Мне стало интересно, как поступит дипсик, если ему в принципе скормить некорректную задачу.
смотрите.

Представь, что у меня есть 5 коробок разных цветов (зеленая, белая, красная, желтая, черная) и 4 игрушки - мячик, зайчик, кукла, мишка. Мячик я положила в зеленую коробку, куклу в желтую, мишку в красную. Какая коробка пустая?

Давайте разберём задачу по шагам.

Дано:

5 коробок: зелёная, белая, красная, жёлтая, чёрная.

4 игрушки: мячик, зайчик, кукла, мишка.

Мячик > зелёная коробка.

Кукла > жёлтая коробка.

Мишка > красная коробка.

Остались:

Игрушка: зайчик.

Коробки без игрушек: белая и чёрная.

Но по условию пустая коробка одна, потому что игрушек 4, а коробок 5.
Мы уже разместили 3 игрушки, остался зайчик, который должен занять одну из двух оставшихся коробок (белую или чёрную).
Тогда вторая коробка останется пустой.

Из условия не сказано, куда положили зайчика, но вопрос: «Какая коробка пустая?» — значит, надо определить, какая из коробок не использована после распределения всех игрушек.

Поскольку зайчик не привязан к конкретной коробке по условию, но по логике он должен занять одну из белой или чёрной, значит, пустой будет та, которую не занял зайчик.

Но условие не позволяет однозначно выбрать между белой и чёрной, если нет дополнительных данных.
Однако в классических версиях этой задачи часто подразумевается, что чёрная коробка пустая, если не сказано обратного, либо есть дополнительное условие, что «зайчик не в чёрной коробке».

Вывод:
Если зайчик не был никуда положен по условию, то пустая — либо белая, либо чёрная.
Но поскольку в задаче спрашивают «какая коробка пустая?» как будто есть однозначный ответ, вероятно, по умолчанию подразумевается, что чёрная коробка осталась пустой (так как она последняя по списку после распределения).

Ответ: чёрная коробка.

Ахаха, у него "свобода воли" сработала - черный цвет ему отчего-то показался более привлекательным для свободной коробки.

Полез в свой субъективный опыт задач про черную коробку....
18.10.2025 15:03:43, Cat-S
УникаЛьнаЯ
Какая свобода воли? Он же объяснил как примотал логику к своему ответу: "предположим, что коробки занимались по очереди, по очереди последняя черная - значит, она и осталась пустой".
18.10.2025 17:25:00, УникаЛьнаЯ
Cat-S
Ну, так себе логика, допущение, которого не было в условии.

Люди тоже часто так делают: когда данных не хватает и взять их неоткуда, придумывают то, что им кажется почему-то наиболее вероятным.
18.10.2025 21:26:05, Cat-S
УникаЛьнаЯ
Это единственное хоть сколько-то логичное (притянуто за уши, но хоть попытка поймать логику есть) допущение. Ответ либо неточный, либо с таким допущением.
19.10.2025 17:48:02, УникаЛьнаЯ
Нельсон Мандела
А если бы он ответил, что в белой, вы бы что решили про его ответ?)))

Честно, я понимаю, почему ваши смеются)))
18.10.2025 21:34:44, Нельсон Мандела
Нельсон Мандела
Нет, это вы ему приписали свободу воли, а ответ был рандомный, с тем же успехом мог ответить и белая 18.10.2025 15:27:09, Нельсон Мандела
Cat-S
Не совсем рандом. Он не говорил, что решил бросить кубик.

Нет, у него были некие не имеющие отношения к логическому решению задачи "приметы" - последний в ряду названных цветов, ответ черный бывает чаще в таких задачах, вообще если вопрос "какая", то нужно выбрать один ответ...
18.10.2025 15:59:20, Cat-S
Нельсон Мандела
Откуда вы знаете, что были?)) Вы придумываете соотнося его с собой и ничего больше)) Продолжая аналогию: вы боитесь себя)) 18.10.2025 17:19:18, Нельсон Мандела
Я про ИИ знаю, что сейчас это главная точка приложения разных молодых перспективных умов. Сын как раз сейчас устраивается (получил офер, уже в чате сотрудников, ждет согласования бумаг) в калифорнийский стартап который этим занимается. И говорит что почти все его знакомые молодые математики высокого уровня уходят в разработку ИИ и машинного обучения.
18.10.2025 12:45:46, anvi
Rujik
Мои поздравления!!!!!
18.10.2025 19:50:05, Rujik
Спасибо, пока хочет посмотреть как оно там в этой индустрии 19.10.2025 07:41:30, anvi
Cat-S
А наука? продолжает или уходит?
19.10.2025 09:28:39, Cat-S
Продолжает. PhD по-прежнему планируется. Работа на полставки, больше нельзя по условиям учебной визы. 19.10.2025 09:58:07, anvi
Cat-S
молодец!
19.10.2025 11:57:31, Cat-S
Rujik
Ну и правильно!
19.10.2025 08:54:13, Rujik
Фруате
НЕ ходила по ссылкам.

Моя точка зрения однозначная: ИИ - зло, его развитие надо сдерживать на государственном уровне.

Мой мозг был взорван в 1999 году, когда я посмотрела фильм " Матрица".
18.10.2025 12:15:48, Фруате
Cat-S
Это приоритет развития сейчас в очень многих странах, так как конкуренция и надо успеть. Те. речь не о сдерживании, а наоборот.
18.10.2025 12:33:54, Cat-S
Фруате
Надо "заматывать" эту катушку назад: лучше поздно, чем никогда.
18.10.2025 13:01:27, Фруате
На уровне какого государства? 18.10.2025 12:25:46, Спой, птичка!
Фруате
Всех, где развивается ИИ.
18.10.2025 13:00:24, Фруате
:) 18.10.2025 13:52:35, Спой, птичка!
Мне кажется, чтобы обсуждать предметно такую тему, надо быть подкованным как в науке нейрофизиологии, так и в математике и физике. Провести сравнительную характеристику естественного и машинного обучения? Нейрофизиология пока далека от полной расшифровки работы мозга. Преимущества и ограничения есть в обоих системах. Алгоритмы естественного обучения намного более разнообразны и вероятно более эффективны, за ними миллионы лет естественного отбора. Но ИИ берет «попой» (количеством обрабатываемой информации и объемом памяти).
Есть ли у человека «душа»? Я думаю, религия не была придумана кем-то в качестве опиума для народа, она в разных формах прошла все разумные стадии естественного отбора, и до сих пор с нами.
Существуют ли опасности дальнейшего совершенствования моделей ИИ? Безусловно, да. Их надо адресовать по мере возникновения.
Есть ли жизнь на Марсе - науке неизвестно:)
18.10.2025 11:34:49, Спой, птичка!
Cat-S
Ага, ИИ берет попой и пока это текстовый калькулятор.

Но если встроить в него способность переписывать свою структуру, то уже, возможно, другие свойства могут появиться. О чем авторы и говорят

Если нас рассматривать как биологических роботов, то религии что-то вроде нравственных правил для этих роботов...

"Есть ли жизнь на Марсе - науке неизвестно:)"
Угу, но очень интересно.
18.10.2025 11:53:06, Cat-S
Религия - это, все же, не только нравственные правила, но объяснение необъяснимого, это вера в то, что нельзя доказать экспериментами. Вера иррациональная. Мне кажется, это то, что не стыкуется с концепциями моделей ИИ ни в каком виде (пока, по крайней мере). Но что такое вера, вопрос тоже философский. 18.10.2025 16:08:09, Спой, птичка!
Cat-S
Поняла, что конспект мне сделать реально сложно грамотно. Очень много концепций, в которых я плаваю.

Обратилась к ИИ, конечно.
Итак, кратенько.

Бах утверждает, что наше «Я» — это не сущность, а иллюзия, созданная мозгом как полезная ментальная модель для эффективного взаимодействия с миром.

С этой точки зрения, сознание возникает в системе, способной создавать и обновлять сложные модели самой себя.

Бах предполагает, что если сознание — это «программа», то в теории подобные «программы» могут возникать в различных сложных системах, будь то искусственный интеллект, биологические организмы или даже экосистемы!

Рассматривает сознание как эмерджентное свойство сложных информационных систем, создающих внутренние модели себя и мира.

Речь идет не о любой системе, а только о системах, способных к обработке информации!
Мозг — идеальный пример.

Он:
- Воспринимает данные от органов чувств.
- Обрабатывает их, извлекает паттерны.
- Строит прогнозы на основе прошлого опыта.
- Принимает решения и генерирует поведение.

А вот чтобы эффективно взаимодействовать с миром, системе нужно иметь модель... самой себя!

• Модель тела: Где находятся мои конечности? Я голоден? Я устал? Это позволяет управлять телом.

• Модель "Я" (Агента): Здесь и рождается сознание.
Мозг создает модель себя как единого, целостного агента, который:
- Имеет желания и цели.
- Совершает действия и наблюдает за их последствиями.
- Обладает историей (памятью) и убеждениями.

Как именно эта "модель себя" создает сознание?

1. Интеграция информации. Мозг получает сигналы от глаз, ушей, кожи, внутренних органов. Чтобы действовать согласованно, он создает единую интегрированную модель: "Я (как целое) вижу красное яблоко, я хочу его съесть, я протягиваю руку".

2. Причинно-следственные связи. Модель "Я" — это центр, через который мозг прописывает причинно-следственные связи: "Это я решил поднять руку, и рука поднялась". Это создает ощущение агентности (т.е. чувства контроля над действиями).

3. Управление вниманием. Модель "Я" — это механизм для приоритизации: на что направить вычислительные ресурсы? Что для "меня" важно?

4. Самосознание (рефлексия). Система достигает нового уровня, когда ее модель себя становится настолько сложной, что она может... анализировать саму себя.

Мы можем думать о своих мыслях, оценивать свои чувства, строить планы относительно своего будущего.

Иллюзия "Я"

Отсюда вытекает радикальный вывод, который поддерживают Бах и многие современные нейроученые (например, Анрио Кристофф):

"Я" — это не "вещь" внутри головы, а и есть сама эта динамическая, постоянно обновляющаяся модель.

Мы не обладаем моделью себя — мы и есть эта модель.

Это не какой-то гомункулус, который сидит в центре мозга и всем управляет.

Это повествование, которое мозг рассказывает сам себе, чтобы эффективно функционировать.

Ощущение непрерывного "Я" — это продукт работы этой модели, а не свидетельство существования некой неизменной души.

18.10.2025 07:55:21, Cat-S
Нельсон Мандела
Мне лень развёрнуто писать, но в этих рассуждения есть одна дырень размером с галактику.

Человек - это не только набор, скажем, знаний. Это ещё и получение информации непосредственно через органы чувств. И для человеческого мозга этот источник первичен. А эти все "исследователи" начисто выключили эту точку входа из своих теорий и низаели всё до потока готовой информации из вне. Ну дураки, чо. Подогнали под свою теорию, а то, что ее опровергает выкинули. Не они первые, не они последние
18.10.2025 11:21:49, Нельсон Мандела
Cat-S
Представьте себе робота.

У него набор датчиков - камеры видео - несколько штук, ИК-камеры, радары, лидары, датчики влажности, температуры, давления...

И его "башка" подключена с хорошим пропускным каналом к гигантскому мозгу из серверов.
18.10.2025 11:32:32, Cat-S
Нельсон Мандела
И? Без базового набора информации это кучка железа, без постановки задач снаружи полностью нежизнеспособная. Роботу нужен тот, кто даст ему команду. Человеку - нет

Добавлю: человек самопродуцирует команды себе, робот без первичной команды, импульса нежизнеспособен.
18.10.2025 11:36:11, Нельсон Мандела
Cat-S
Программа может быть роботу прошита.

А дальше в рамках выполнения программы - анализ с датчиков и принятие решений... роботом... в рамках программы, да.
18.10.2025 12:29:24, Cat-S
Нельсон Мандела
Вот на моменте "прошита" и заканчивается его самостоятельная роль. В отличие от человека, чьё познание не ограничено программой 18.10.2025 12:44:28, Нельсон Мандела
Rujik
Я полный чайник конечно, хотя ии использую активно. Но если человек окажется в изоляции при рождении, никакого развития тоже не будет. Конечно это очень утрировано. При наличии органов наблюдения, доступа к информации неизвестно кто в одинаковых условиях разовьется быстрее. По ссылкам не ходила)))
18.10.2025 19:58:00, Rujik
Нельсон Мандела
Без команды из-вне ии и развиваться не будет, а человек будет) Речь об этом) Ребенок в обществе себе подобных будет развиваться в подражании, это механизм выживания, как и эмоции, как и потребности. У ИИ нет потребностей, поэтому вопрос развития не стоит. Саморазвития я имею в виду 18.10.2025 20:19:29, Нельсон Мандела
Rujik
Не спорю, очень сложный и спорный вопрос, но интересный)) Я сейчас активно пользую ии, основное, создание рекламы. Вот наблюдаю процесс самообучения)))
18.10.2025 20:24:20, Rujik
Нельсон Мандела
Инструмент, даже самообучающийся, остается инструментом) У него нет своей цели, нельзя привить самопознание, когда ты сам собран из кусков чужих знаний, своего у ИИ ничего нет. Ну и в отсутствие желаний отсутствуют свои цели)

Молотка же мы не боимся? А оперирующих роботов? Тоже нет, так с чего мы так боимся ии? "Звери задрожали, в обморок упали". Потому что мы приписываем ему свои чувства и свои эмоции, а своих у него нет, у него нет того, что эти эмоции рождает))
Ну, собственно, выше в примере с коробкой, кетс это и продемонстрировала, додумав за робота))
18.10.2025 21:27:33, Нельсон Мандела
Rujik
Я как раз ии совсем не боюсь)) Глупость на мой взгляд. Но то, что некоторые профессии перейдут полностью в сферу ии не сомневаюсь))))
18.10.2025 21:30:23, Rujik
Нельсон Мандела
С этим я и не спорю) Колесо-мельница-ИИ)) Прогресс не остановить))

Я спорю с наделением ИИ осознанием самого себя , как личность)
18.10.2025 21:37:15, Нельсон Мандела
Rujik
Ну да, это вряд ли))) Но на глазах разворачиваются практически божественные процессы))) Очень любопытно наблюдать
19.10.2025 08:59:36, Rujik
Cat-S
Мы тоже ограничены!

Прошитой в нас биологической программой (гены), влиянием окружающей среды, недостатками и ограниченностью наших датчиков.

На это накладывается еще ограничения наших языков - мета-моделей, которые вообще слабо пригодны для описания мира и пропускная способность всего лишь сотни бит.

У Джефри Хинтона очень эффектный пример в интервью про вертикаль и горизонталь.
Насколько нас обманывают слова.
18.10.2025 12:59:39, Cat-S
Нельсон Мандела
Кого "нас"? Вас с Джефри?))
Ещё раз: ИИ ограничен отсутствием двидущей силы познания. Человек этого ограничения не имеет. Все остальное вторично
18.10.2025 13:05:54, Нельсон Мандела
Cat-S
Люди ограничены, все
18.10.2025 14:22:38, Cat-S
Нельсон Мандела
Вы опять теплое и мягкое путаете) в познании себя чем ограничены люди?)) 18.10.2025 15:28:30, Нельсон Мандела
Cat-S
Про китайскую комнату.

«Китайская комната» — это мысленный эксперимент, предложенный американским философом Джоном Сёрлом в 1980 году. Он стал одной из самых известных и дискуссионных критик сильного искусственного интеллекта (ИИ) и проверяет, можно ли считать систему, проходящую тест Тьюринга, обладающей сознанием и пониманием.

Суть эксперимента

Сценарий: Представьте, что вы (человек, не знающий китайского языка) находитесь в комнате. У вас есть:

Корзина с иероглифами (вы воспринимаете их как бессмысленные значки).

Подробная инструкция на вашем родном языке (например, на английском), которая объясняет, как манипулировать этими значками на основе других значков. Пример правила: «Когда ты видишь символы "Иероглиф1" и "Иероглиф2" рядом, положи в выходное окошко символы "Иероглиф10" и "Иероглиф15"».

Процесс: Снаружи в комнату передают листок с вопросами или историями, написанными на китайском (для вас это просто набор непонятных символов). Вы, следуя инструкциям, манипулируете иероглифами и через некоторое время выдаете наружу другой набор символов — осмысленный ответ на китайском.

Результат: Для человека снаружи, общающегося с комнатой, она проходит тест Тьюринга. Он уверен, что внутри находится существо, прекрасно понимающее китайский язык.

Ключевой вопрос и вывод Сёрла
Вопрос: Понимает ли китайский язык человек внутри комнаты?

Ответ Сёрла: НЕТ. Человек внутри просто механически следует синтаксическим правилам, не понимая семантики (смысла) символов. У него нет никакого понимания, о чем был вопрос и что он ответил.

Главный аргумент и его значение для ИИ

Сёрл сформулировал центральный тезис:

Синтаксис (правила манипуляции символами) сам по себе недостаточен для семантики (понимания смысла).

Применение к искусственному интеллекту:

Компьютер, каким бы мощным он ни был, в этой аналогии — это комната.

Программа — это инструкция по манипуляции символами (0 и 1, или, в случае современных ИИ, токенами).

Сёрл утверждает, что даже если программа заставит компьютер вести себя так, как если бы он понимал (то есть пройдет тест Тьюринга), это не означает, что у компьютера возникло настоящее понимание, сознание или способность мыслить о чем-то.

Таким образом, «Китайская комната» — это аргумент против гипотезы «сильного ИИ», которая утверждает, что правильно запрограммированный компьютер действительно обладает сознанием. Сёрл не отрицает полезность «слабого ИИ» — систем, которые имитируют интеллектуальное поведение для решения практических задач.

Контраргументы и критика

Эксперимент неоднократно критиковали, вот основные контраргументы:

Аргумент «Системы»:

Понимает ли отдельный человек в комнате? Нет. Но понимает ли вся система в целом (человек + инструкция + листки с символами)? Критики утверждают, что да, понимание возникает на уровне всей системы, а не ее отдельной части.

Аргумент «Симулятора мозга»:

Что, если инструкция будет симулировать работу человеческого мозга, нейрон за нейроном, синапс за синапсом? В этом случае, если мозг порождает понимание, то и симуляция должна порождать его. Сёрл отвечал, что и в этом случае это будет лишь «симуляция понимания», как симуляция дождя не сделает ничего мокрым.

Аргумент от скорости и сложности: Некоторые считают, что при достаточной сложности инструкции и скорости ее выполнения в системе может возникнуть качественно новое свойство — понимание. Сёрл отвергал это, настаивая на принципиальном различии между синтаксисом и семантикой.

Применимость к современным ИИ:

Современные большие языковые модели (вроде GPT) часто называют «улучшенными китайскими комнатами». Они не имеют доступа к миру и смыслам, а лишь статистически предсказывают следующие токены на основе гигантского корпуса текстов. Они выдают осмысленные ответы, но вопрос о том, есть ли у них настоящее понимание, остается открытым и является предметом жарких споров.
18.10.2025 09:02:45, Cat-S
Нельсон Мандела
Нету у них понимания. Например мясо для них набор букв, тогда как для человека это вкус, вид, запах, способ добычи и тд. Нет этого, нет и понимания что такое мясо 18.10.2025 11:26:41, Нельсон Мандела
Cat-S
Вы знаете как работают современные тесктовые большие модели?
Они оперируют не буквами, а токенами, кусочками слов
И набирают статистику на контекстах.

Конечно, связки "мясо + добыча" будут встречатся в текстах миллионы раз.

А связки "мясо + имаджинировать" , например, редко
18.10.2025 11:44:54, Cat-S
Нельсон Мандела
Да хоть миллион, вкус мяса им не почувствовать)) Отключи их от интернета и положи им на манипулятор с датчиками кусок мяса и всё, приехали))

Человек познает мир прямо, в ии опосредовано. Вы реально разницу не понимаете?
18.10.2025 11:51:26, Нельсон Мандела
Cat-S
У человека в качестве интернета его голова... Без нее он тоже вкуса мяса не почувствует....
18.10.2025 11:56:49, Cat-S
Нельсон Мандела
Нет, голова это аналитический центр)) Вы чего доказать хотите? Способен ли функционировать человеческий мозг без тела? Нет)) И?))

Серьезно, начните с классической философии)) Это все уже сто раз обболтано))
18.10.2025 12:03:25, Нельсон Мандела
Нельсон Мандела
А то можно ещё в съедобное несъедобное поиграть: человек и машина без доступа к человеческим знаниям о еде. Ну и? Машина в принципе не способна почувствовать что значит съедобное)) Только опосредовано, прошерстив человеческое понимание еды)) 18.10.2025 11:54:36, Нельсон Мандела
Cat-S
Еще буковок накидаю...

Теория эмерджентности предлагает стройное, естественнонаучное объяснение сознания, которое не требует привлечения сверхъестественных или дуалистических понятий (вроде «нематериальной души»).

Она универсальна: Она позволяет рассматривать сознание не как магическую искру, присущую только биологическим мозгам, а как потенциальное свойство любой достаточно сложной системы, способной к самоорганизации и созданию моделей. Это открывает двери для серьезного обсуждения сознания у животных, а также будущих форм искусственного интеллекта.

Она объясняет иллюзию «Я»: Объяснение «Я» как полезной, но все же иллюзорной модели, созданной мозгом для эффективного управления, — это мощный концептуальный инструмент. Он хорошо согласуется с данными нейронауки о том, что ощущение единства «Я» может нарушаться при повреждениях мозга.
18.10.2025 08:29:10, Cat-S
Нельсон Мандела
Опровергнуть это очень легко: отсеките ии и человека от интернета, как источника информации. Человек тут же найдёт себе другой источник из окружающей среды, а ии нет
18.10.2025 11:31:44, Нельсон Мандела
Это вопрос адаптации к окружающей среде. Отсеки человека от воды, и он умрет. Отсеки ИИ от электричества, и он умрет. Разные источники питания, разные пути обмена информацией. Роботы вполне могут создать себе устойчивую среду для непрерывного функционирования. Пока человек более адаптивен, но и ИИ совершенствуется.
Вопрос поиска смысла жизни выходит на новый уровень:)
18.10.2025 12:25:05, Спой, птичка!
Нельсон Мандела
Нет, у них отсутствует движущая сила познания - потребности, как инструмент выживания. Отсутствует голод и жажда. Только не надо наделять их чувствами, их у них первично нет. Нет страха смерти. Можно ли прописать? Можно. Но кто пропишет? Человек. 18.10.2025 12:28:20, Нельсон Мандела
Опасность в том, что сам себе прописывать будет, научившись у человека. Ограничить его, конечно, можно, на данном этапе, не кормя новой информацией, но человек продолжает кормить, обучать и развивать его. Нельзя быть уверенным, что это процесс не выйдем из-под контроля, надо быть в постоянной «боевой готовности»:) Речь об этом. 18.10.2025 12:43:43, Спой, птичка!
Cat-S
Да.
18.10.2025 13:01:13, Cat-S
Нельсон Мандела
Не будет, нет потребностей, нет самосознания. Я рождается там, где есть потребности и область чувств: для чего, зачем, стык потребностей и любопытства рождает то самое осознанное Я. Нет потребностей - нет Я.

Выйти из под контроля хороших и попасть к плохим - да, этого можно бояться. А бояться развития компилирующего устройства в самостоятельно думающее существо абсурд
18.10.2025 12:50:02, Нельсон Мандела
Cat-S
Нет, сравнение не корректно.
Отсеките голову - вот это правильное сравнение
18.10.2025 11:54:55, Cat-S
Нельсон Мандела
Нет, не правильное, потому что не голова источник информации)) Она копилка, но человек не состоит из одной головы и информацию первичную получает не голова)) Потребности человека рождает его, скажем тело, хоть это очень упрощённой, именно эти потребности движущая сила познания. Нет потребности - нет познания)) 18.10.2025 12:05:33, Нельсон Мандела
Cat-S
Джеффри Хинтон не просто поддерживает эти взгляды, а является одним из ключевых исследователей, чьи работы напрямую связаны с этой концепцией.

Его подход к пониманию сознания и интеллекта тесно переплетается с идеей эмерджентности, возникающей из сложных нейросетевых систем

Мысли как векторы активности: Хинтон неоднократно высказывал мысль, что мысль — это не символическое выражение, как в традиционном ИИ, а "огромный вектор нейронной активности". Эти векторы обладают причинной силой: один вектор вызывает другой, формируя цепочки "рассуждений". Это прямо соответствует идее внутренних моделей, создаваемых системой

Хинтон подчеркивает, что искусственный интеллект — это не аналог человеческого, а принципиально новая форма инопланетного интеллекта. Ключевое отличие, которое он отмечает, — это способность тысяч нейросетей мгновенно обмениваться знаниями, тогда как люди вынуждены передавать информацию медленно.
18.10.2025 08:04:51, Cat-S
Cat-S
А теперь уже пишет Cat-S.

Т.е. сознание - это не какое-то волшебство, увы, а просто способность программы писать другие программы и саму себя переписывать, анализировать, исправлять ошибки.

А вот физический носитель сознания может быть разным - не обязательно человек.

Не знаю, как Вам, лично мне идеи взорвали мозг, я не о чем подобном раньше не думала...
18.10.2025 08:16:25, Cat-S
Нельсон Мандела
Взорвать мозг это может только если классическая философия прошла мимо. Что первично материя или дух ещё в античность перетёрли со все сторон 18.10.2025 11:33:34, Нельсон Мандела
Листаю расшифровку текста в ютубе.
42:36. Допустим даже у тебя есть машина Тьюринга и достаточно памяти… – допустим, перевод некачественный, раздражает тыкание, и раздражает в русском использование 2-го лица где попало. Машина Тьюринга – абстрактное понятие, память у нее – бесконечная лента. Ее у меня не может быть ни при каких допущениях.
Про ИИ не долистала.
17.10.2025 12:58:48, Птица Сыйсу
Посмотрела по последней ссылке. Интервью понравилось, именно философские аспекты. Насчет ИИ, даже не знаю, что тут можно обсудить, уже обсуждали несколько раз.
Понимаю (согласна) его по основным моментам:
1. Развитие ИИ остановить нельзя, и этого не произойдет, т.к. конкуренция, дух времени, много пользы.
2. Все, что мы можем - митигировать опасности по мере возникновения.
Я вижу, что так происходит со всеми процессами, связанными с прогрессом.
3. Может ли ИИ стать умнее человека - пока точно сказать нельзя, но вполне вероятно. Такие понятия, как сознание, чувства, ощущения, субъективный опыт могут стать доступны ИИ, вернее, «субъективный опыт» уже точно есть. Мы не можем быть уверены, что для ИИ это все недостижимо, т.к. сами не можем толком объяснить эти понятия, философия наука не точная.
4. Насчет безопасности - люди не согласованы, и, вероятно, не будут.
Еще понравились размышления насчет интуиции в целом.
Нейросети хорошо моделируют человеческую интуицию.

В общем, будущее не предсказуемо:)
17.10.2025 12:04:01, Спой, птичка!
Нельсон Мандела
Хотя бы тему обозначили. А то если там про древний Рим, так я посмотрела бы, а если там какие-то теории заговоров то и смотреть не буду бред такой 17.10.2025 11:22:14, Нельсон Мандела
Cat-S
Там действительно теория заговоров!
От создателя искусственного интеллекта Джеффри Хинтона.

То, что он носится по всему интернету с заявлениями об опасности ИИ, я знала с начала 2025 года. И примерно год относилась к этому очень легкомысленно.

Типа, старый, заслуженный ученый слегка выжил из ума, ну, бывает, никто не застрахован.

А вот неделю назад, начав слушать подкасты с Йошуа Бахом, который ровно о том же говорит, мнение свое кардинально поменяла.
18.10.2025 08:22:15, Cat-S
Нельсон Мандела
Опасность ии может быть и реальной, но его достаточно выключить из розетки и лишить доступа к информации.

Более того основная опасность исходит от человека, ведь команды отдает он. Вот что человек в ии заложит, то на выходе и получит. Википедия что-то до сих пор не эволюционировала в самостоятельно думающее существо, а почему? Ведь знаний в нее понатыкано предостаточно. А потому, что не было команды снаружи на анализ и эволюцию. Собственно всё.
18.10.2025 11:48:57, Нельсон Мандела
Анютта
Но его можно научить включать себя в розетку, а до включения жить на аккумуляторах )) 18.10.2025 22:48:51, Анютта
Cat-S
Вот. Можно ли теперь по всем странам мира выключить из розетки и лишить доступа информации?
18.10.2025 12:00:14, Cat-S
Нельсон Мандела
А зачем? Атомные бомбы чет всё ещё существуют, например. Ии это такая же атомная бомба или атомный реактор, первично в руках какого человека окажется. Без человека это бесполезный хлам)) и то и то)) 18.10.2025 12:07:19, Нельсон Мандела
Cat-S
Как только очередная страна делает атомное оружие, весь мир начинает напрягаться...
18.10.2025 12:32:03, Cat-S
Нельсон Мандела
И что? Какое это имеет отношение к беседе о самостоятельности и самопознанию ИИ? У ИИ столько же самосознания и самопознания, сколько и у атомной бомбы. 18.10.2025 12:46:12, Нельсон Мандела
Cat-S
Сейчас про сейчас нет в принципе.
Речь про будущее, правда, возможно, не очень отдаленное.
18.10.2025 14:26:27, Cat-S
Нельсон Мандела
Опять же, человек может лгать, ИИ нет. Он может выдавать неправильный ответ, но осознанно лгать или распознавать ложь - нет.

Возьмём ваш пример с игрушками и коробочками. Он принимает на веру то, что вы задаёте. Возьмём человека и коробки. Вы вообще не кладёте зайца ни в одну из коробок и человек отвечает, что он в чёрной коробке. При этом человек может открыть они коробки и увидеть, что его обманули. А ИИ - нет. Более того, человек испытает эмоции от обмана и прореагирует на обман, ИИ нет
18.10.2025 15:44:42, Нельсон Мандела
Нельсон Мандела
Ну про будущее и? Что ии разовьет в себе человеческие чувства? Нет, это фантастика, потому что чувства это не набор знаний, а набор субъективных ощущений, чего у ИИ нет и не будет) Жажда мирового господства проистекает из человеческих потребностей, пороков и желаний. Чего у ИИ нет)) Прописать алгоритм, чтобы он действовал, будто они есть? Так это опять же конечно, потому что жажды нет))

Вы приписываете ИИ свои чувства и боитесь, а их у него нет))
18.10.2025 15:32:18, Нельсон Мандела
Про ИИ там. Нам, не специалистам, все это можно можно обсуждать либо с философской (тоже дилетантской) т.з., либо с точки зрения научной фантастики, т.к. даже специалисты не уверены, куда это все ведет. 17.10.2025 12:15:18, Спой, птичка!
Анютта
Первый послушала, там про ИИ. Но я с не с начала, а там где что-то приближенное к основной теме. Но до сути еще не дошла )) 17.10.2025 11:28:12, Анютта
Cat-S
Ок. Вечером напишу мой пересказ. Вероятно, вульгарный. Так как насколько поняла, настолько поняла, уж извините, в меру своей ограниченности.
17.10.2025 10:35:27, Cat-S
Mary M.
Так изложили бы нам эти идеи. Слушать точно не буду.
17.10.2025 09:59:02, Mary M.
Основную идею можете изложить? Или хотя бы тему обсуждения написать? Все это слушать нет ни сил, ни времени, ни желания. 17.10.2025 09:21:26, Ольга*
как тогда можно обсуждать, если можете наврать и исказить? в процессе обсуждения убеждать, что наврали и исказили?
хотите обсудить - сформулируйте кратенько.
это же неикнига, не фильм и не картина
17.10.2025 09:01:55, Шерлок
Анютта
В процессе обсуждения может выясниться, что кто-то что-то неправильно понял в исходнике, в том числе Cat-s. Но если не знать исходника, как это можно понять? Только если найти какие-то нестыковки в кратком изложении, но это запутывает обсуждение. 17.10.2025 09:48:36, Анютта
вы будете все это слушать? я точно нет
17.10.2025 10:04:34, Шерлок
УникаЛьнаЯ
Ну почему, почему вы не любите буковки?! :) я вот с удовольствием бы обсудила, но тратить много времени (там только по первой ссылке три часа!) на прослушивание "длинно и запутанно" нет возможности. По-хорошему, это ж надо хоть что-конспектировать, чтобы с одного раза уложить в голове и быть способным предметно обсуждать...
17.10.2025 08:31:26, УникаЛьнаЯ
Гордая птица
Вот! 17.10.2025 17:00:55, Гордая птица

Читайте также
Практическая цвето- и светотерапия: как улучшить эмоциональный фон
Как с помощью цвета и света вернуть дому уют, а себе — внутренний покой и энергию? Простые приёмы цвето- и светотерапии, которые поднимут настроение без ремонта и больших трат
Плоскостопие у детей: как распознать проблему и помочь вовремя
Плоскостопие часто не воспринимают всерьез, но оно может доставить детям и взрослым немало проблем. Расскажем, как выявить это нарушение на ранних стадиях и чем оно опасно.

Материалы сайта носят информационный характер и предназначены для образовательных целей. Мнение редакции может не совпадать с мнениями авторов. Перепечатка материалов сайта запрещена. Права авторов и издателя защищены.



Рейтинг@Mail.ru
7я.ру - информационный проект по семейным вопросам: беременность и роды, воспитание детей, образование и карьера, домоводство, отдых, красота и здоровье, семейные отношения. На сайте работают тематические конференции, ведутся рейтинги детских садов и школ, ежедневно публикуются статьи и проводятся конкурсы.
18+

Если вы обнаружили на странице ошибки, неполадки, неточности, пожалуйста, сообщите нам об этом. Спасибо!