Очень длинные подкасты!
Понимаю, что не у всех хватит сил дослушать (может быть, и вообще ни у кого), я сама слушаю в машине кусками.
Специально нашла на рутубе, т.к. помню, что ютюба у многих нет.
1) [ссылка-1]
2) [ссылка-2]
Идеи Йошуа Баха мой бедный мозг взрывают :)))
Специально не пересказываю идеи, т.к. в процессе пересказа могу наврать и исказить.
Пытаюсь обсудить с мужем, сыном, дочерью - меня поднимают на смех, разговора не получается, увы.
Может, с Вами получится?
Сразу предупреждаю - там очень длинно, очень запутанно, но офигенно интересно.
А у кого есть ютюб - интервью Джефри Хинтона (на рутубе не нашла)
3) [ссылка-3] - популярнее уже, примерно о том же, и так же мозговзрывательно.
Конференция "Девичья без анонимов""Девичья без анонимов"
Раздел: Просто поделиться

Теория эмерджентности. Хочу обсудить на выходных!
17.10.2025 08:18:54, Cat-S89 комментариев
Вы не авторизованы. Для отправки сообщения необходимо авторизоваться.
Что означает термин ИИ? Есть нормальное определение? Вот, например, бюрократическое:
“искусственный интеллект - комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их.”
Об этом речь? О ChatGPT? О чем?
18.10.2025 17:58:25, Птица Сыйсу
О том, что у нас по-русски называется "сильный искусственный интеллект", иногда называют "общий искусственный интеллект".
То, чего еще нет, но к чему приглагаются усилия для создания.
Да, решение задач без заранее заданного алгоритма.
Справедливости ради, не все люди обладают такой способностью, решать задачи без заранее заданного алгоритма.
18.10.2025 21:21:43, Cat-S
Алгоритм понятие информатики. Программирование это частный случай.
До сих пор у нас не было возможности программой качественно писать программы. А сейчас такая возможность появилась. Т.е машина получит возможность переписывать свое ПО.
19.10.2025 09:27:49, Cat-S
Личность человека не состоит из способности решать задачи)) Что именно вам в этом непонятно?)) Решение задач не формирует личность, не создаёт автономное Я, не наделяет самосознанием и самоопределением))
Человеком, мыслящим существом вас делает не умение решать задачи)) 18.10.2025 21:33:34, Нельсон Мандела
“искусственный интеллект - комплекс технологических решений, позволяющий имитировать когнитивные функции человека (включая поиск решений без заранее заданного алгоритма) и получать при выполнении конкретных задач результаты, сопоставимые с результатами интеллектуальной деятельности человека или превосходящие их.”
Об этом речь? О ChatGPT? О чем?
18.10.2025 17:58:25, Птица Сыйсу

То, чего еще нет, но к чему приглагаются усилия для создания.
Да, решение задач без заранее заданного алгоритма.
Справедливости ради, не все люди обладают такой способностью, решать задачи без заранее заданного алгоритма.
18.10.2025 21:21:43, Cat-S
Об этом говорят и говорят так давно. Даже у Стругацких в мире Полдня, про то как отключили супермашину, когда "она начала себя вести" (Массачусетская машина). Пока этого нет, но есть путаница понятий. Назвают ИИ любую программную систему, пугают людей почем зря.
Когда приспичит, большая часть людей способна сообразить, что делать, даже если не учили. Вообще, алгоритм понятие довольно узкое, его употребление стоит ограничить математикой и програмирванием. Во избежание той же путаницы.
18.10.2025 21:46:37, Птица Сыйсу
Когда приспичит, большая часть людей способна сообразить, что делать, даже если не учили. Вообще, алгоритм понятие довольно узкое, его употребление стоит ограничить математикой и програмирванием. Во избежание той же путаницы.
18.10.2025 21:46:37, Птица Сыйсу

До сих пор у нас не было возможности программой качественно писать программы. А сейчас такая возможность появилась. Т.е машина получит возможность переписывать свое ПО.
19.10.2025 09:27:49, Cat-S
Интересно. Уже есть программа, которая может запрограммировать алгоритм Евклида? Или разработать алгоритм Евклида самостоятельно, без поиска его в инете?
19.10.2025 13:44:37, Птица Сыйсу
19.10.2025 13:44:37, Птица Сыйсу

Человеком, мыслящим существом вас делает не умение решать задачи)) 18.10.2025 21:33:34, Нельсон Мандела

смотрите.
Представь, что у меня есть 5 коробок разных цветов (зеленая, белая, красная, желтая, черная) и 4 игрушки - мячик, зайчик, кукла, мишка. Мячик я положила в зеленую коробку, куклу в желтую, мишку в красную. Какая коробка пустая?
Давайте разберём задачу по шагам.
Дано:
5 коробок: зелёная, белая, красная, жёлтая, чёрная.
4 игрушки: мячик, зайчик, кукла, мишка.
Мячик > зелёная коробка.
Кукла > жёлтая коробка.
Мишка > красная коробка.
Остались:
Игрушка: зайчик.
Коробки без игрушек: белая и чёрная.
Но по условию пустая коробка одна, потому что игрушек 4, а коробок 5.
Мы уже разместили 3 игрушки, остался зайчик, который должен занять одну из двух оставшихся коробок (белую или чёрную).
Тогда вторая коробка останется пустой.
Из условия не сказано, куда положили зайчика, но вопрос: «Какая коробка пустая?» — значит, надо определить, какая из коробок не использована после распределения всех игрушек.
Поскольку зайчик не привязан к конкретной коробке по условию, но по логике он должен занять одну из белой или чёрной, значит, пустой будет та, которую не занял зайчик.
Но условие не позволяет однозначно выбрать между белой и чёрной, если нет дополнительных данных.
Однако в классических версиях этой задачи часто подразумевается, что чёрная коробка пустая, если не сказано обратного, либо есть дополнительное условие, что «зайчик не в чёрной коробке».
Вывод:
Если зайчик не был никуда положен по условию, то пустая — либо белая, либо чёрная.
Но поскольку в задаче спрашивают «какая коробка пустая?» как будто есть однозначный ответ, вероятно, по умолчанию подразумевается, что чёрная коробка осталась пустой (так как она последняя по списку после распределения).
Ответ: чёрная коробка.
Ахаха, у него "свобода воли" сработала - черный цвет ему отчего-то показался более привлекательным для свободной коробки.
Полез в свой субъективный опыт задач про черную коробку....
18.10.2025 15:03:43, Cat-S

18.10.2025 17:25:00, УникаЛьнаЯ

Люди тоже часто так делают: когда данных не хватает и взять их неоткуда, придумывают то, что им кажется почему-то наиболее вероятным.
18.10.2025 21:26:05, Cat-S

19.10.2025 17:48:02, УникаЛьнаЯ

Честно, я понимаю, почему ваши смеются))) 18.10.2025 21:34:44, Нельсон Мандела


Нет, у него были некие не имеющие отношения к логическому решению задачи "приметы" - последний в ряду названных цветов, ответ черный бывает чаще в таких задачах, вообще если вопрос "какая", то нужно выбрать один ответ...
18.10.2025 15:59:20, Cat-S

Я про ИИ знаю, что сейчас это главная точка приложения разных молодых перспективных умов. Сын как раз сейчас устраивается (получил офер, уже в чате сотрудников, ждет согласования бумаг) в калифорнийский стартап который этим занимается. И говорит что почти все его знакомые молодые математики высокого уровня уходят в разработку ИИ и машинного обучения.
18.10.2025 12:45:46, anvi
18.10.2025 12:45:46, anvi
Продолжает. PhD по-прежнему планируется. Работа на полставки, больше нельзя по условиям учебной визы.
19.10.2025 09:58:07, anvi

Моя точка зрения однозначная: ИИ - зло, его развитие надо сдерживать на государственном уровне.
Мой мозг был взорван в 1999 году, когда я посмотрела фильм " Матрица".
18.10.2025 12:15:48, Фруате

18.10.2025 12:33:54, Cat-S
Мне кажется, чтобы обсуждать предметно такую тему, надо быть подкованным как в науке нейрофизиологии, так и в математике и физике. Провести сравнительную характеристику естественного и машинного обучения? Нейрофизиология пока далека от полной расшифровки работы мозга. Преимущества и ограничения есть в обоих системах. Алгоритмы естественного обучения намного более разнообразны и вероятно более эффективны, за ними миллионы лет естественного отбора. Но ИИ берет «попой» (количеством обрабатываемой информации и объемом памяти).
Есть ли у человека «душа»? Я думаю, религия не была придумана кем-то в качестве опиума для народа, она в разных формах прошла все разумные стадии естественного отбора, и до сих пор с нами.
Существуют ли опасности дальнейшего совершенствования моделей ИИ? Безусловно, да. Их надо адресовать по мере возникновения.
Есть ли жизнь на Марсе - науке неизвестно:) 18.10.2025 11:34:49, Спой, птичка!
Ага, ИИ берет попой и пока это текстовый калькулятор.
Но если встроить в него способность переписывать свою структуру, то уже, возможно, другие свойства могут появиться. О чем авторы и говорят
Если нас рассматривать как биологических роботов, то религии что-то вроде нравственных правил для этих роботов...
"Есть ли жизнь на Марсе - науке неизвестно:)"
Угу, но очень интересно.
18.10.2025 11:53:06, Cat-S
Есть ли у человека «душа»? Я думаю, религия не была придумана кем-то в качестве опиума для народа, она в разных формах прошла все разумные стадии естественного отбора, и до сих пор с нами.
Существуют ли опасности дальнейшего совершенствования моделей ИИ? Безусловно, да. Их надо адресовать по мере возникновения.
Есть ли жизнь на Марсе - науке неизвестно:) 18.10.2025 11:34:49, Спой, птичка!

Но если встроить в него способность переписывать свою структуру, то уже, возможно, другие свойства могут появиться. О чем авторы и говорят
Если нас рассматривать как биологических роботов, то религии что-то вроде нравственных правил для этих роботов...
"Есть ли жизнь на Марсе - науке неизвестно:)"
Угу, но очень интересно.
18.10.2025 11:53:06, Cat-S
Религия - это, все же, не только нравственные правила, но объяснение необъяснимого, это вера в то, что нельзя доказать экспериментами. Вера иррациональная. Мне кажется, это то, что не стыкуется с концепциями моделей ИИ ни в каком виде (пока, по крайней мере). Но что такое вера, вопрос тоже философский.
18.10.2025 16:08:09, Спой, птичка!

Обратилась к ИИ, конечно.
Итак, кратенько.
Бах утверждает, что наше «Я» — это не сущность, а иллюзия, созданная мозгом как полезная ментальная модель для эффективного взаимодействия с миром.
С этой точки зрения, сознание возникает в системе, способной создавать и обновлять сложные модели самой себя.
Бах предполагает, что если сознание — это «программа», то в теории подобные «программы» могут возникать в различных сложных системах, будь то искусственный интеллект, биологические организмы или даже экосистемы!
Рассматривает сознание как эмерджентное свойство сложных информационных систем, создающих внутренние модели себя и мира.
Речь идет не о любой системе, а только о системах, способных к обработке информации!
Мозг — идеальный пример.
Он:
- Воспринимает данные от органов чувств.
- Обрабатывает их, извлекает паттерны.
- Строит прогнозы на основе прошлого опыта.
- Принимает решения и генерирует поведение.
А вот чтобы эффективно взаимодействовать с миром, системе нужно иметь модель... самой себя!
• Модель тела: Где находятся мои конечности? Я голоден? Я устал? Это позволяет управлять телом.
• Модель "Я" (Агента): Здесь и рождается сознание.
Мозг создает модель себя как единого, целостного агента, который:
- Имеет желания и цели.
- Совершает действия и наблюдает за их последствиями.
- Обладает историей (памятью) и убеждениями.
Как именно эта "модель себя" создает сознание?
1. Интеграция информации. Мозг получает сигналы от глаз, ушей, кожи, внутренних органов. Чтобы действовать согласованно, он создает единую интегрированную модель: "Я (как целое) вижу красное яблоко, я хочу его съесть, я протягиваю руку".
2. Причинно-следственные связи. Модель "Я" — это центр, через который мозг прописывает причинно-следственные связи: "Это я решил поднять руку, и рука поднялась". Это создает ощущение агентности (т.е. чувства контроля над действиями).
3. Управление вниманием. Модель "Я" — это механизм для приоритизации: на что направить вычислительные ресурсы? Что для "меня" важно?
4. Самосознание (рефлексия). Система достигает нового уровня, когда ее модель себя становится настолько сложной, что она может... анализировать саму себя.
Мы можем думать о своих мыслях, оценивать свои чувства, строить планы относительно своего будущего.
Иллюзия "Я"
Отсюда вытекает радикальный вывод, который поддерживают Бах и многие современные нейроученые (например, Анрио Кристофф):
"Я" — это не "вещь" внутри головы, а и есть сама эта динамическая, постоянно обновляющаяся модель.
Мы не обладаем моделью себя — мы и есть эта модель.
Это не какой-то гомункулус, который сидит в центре мозга и всем управляет.
Это повествование, которое мозг рассказывает сам себе, чтобы эффективно функционировать.
Ощущение непрерывного "Я" — это продукт работы этой модели, а не свидетельство существования некой неизменной души.
18.10.2025 07:55:21, Cat-S

Человек - это не только набор, скажем, знаний. Это ещё и получение информации непосредственно через органы чувств. И для человеческого мозга этот источник первичен. А эти все "исследователи" начисто выключили эту точку входа из своих теорий и низаели всё до потока готовой информации из вне. Ну дураки, чо. Подогнали под свою теорию, а то, что ее опровергает выкинули. Не они первые, не они последние 18.10.2025 11:21:49, Нельсон Мандела

У него набор датчиков - камеры видео - несколько штук, ИК-камеры, радары, лидары, датчики влажности, температуры, давления...
И его "башка" подключена с хорошим пропускным каналом к гигантскому мозгу из серверов.
18.10.2025 11:32:32, Cat-S

Добавлю: человек самопродуцирует команды себе, робот без первичной команды, импульса нежизнеспособен.
18.10.2025 11:36:11, Нельсон Мандела

А дальше в рамках выполнения программы - анализ с датчиков и принятие решений... роботом... в рамках программы, да.
18.10.2025 12:29:24, Cat-S


18.10.2025 19:58:00, Rujik


18.10.2025 20:24:20, Rujik

Молотка же мы не боимся? А оперирующих роботов? Тоже нет, так с чего мы так боимся ии? "Звери задрожали, в обморок упали". Потому что мы приписываем ему свои чувства и свои эмоции, а своих у него нет, у него нет того, что эти эмоции рождает))
Ну, собственно, выше в примере с коробкой, кетс это и продемонстрировала, додумав за робота)) 18.10.2025 21:27:33, Нельсон Мандела

18.10.2025 21:30:23, Rujik

Я спорю с наделением ИИ осознанием самого себя , как личность) 18.10.2025 21:37:15, Нельсон Мандела

19.10.2025 08:59:36, Rujik

Прошитой в нас биологической программой (гены), влиянием окружающей среды, недостатками и ограниченностью наших датчиков.
На это накладывается еще ограничения наших языков - мета-моделей, которые вообще слабо пригодны для описания мира и пропускная способность всего лишь сотни бит.
У Джефри Хинтона очень эффектный пример в интервью про вертикаль и горизонталь.
Насколько нас обманывают слова.
18.10.2025 12:59:39, Cat-S

Ещё раз: ИИ ограничен отсутствием двидущей силы познания. Человек этого ограничения не имеет. Все остальное вторично 18.10.2025 13:05:54, Нельсон Мандела


«Китайская комната» — это мысленный эксперимент, предложенный американским философом Джоном Сёрлом в 1980 году. Он стал одной из самых известных и дискуссионных критик сильного искусственного интеллекта (ИИ) и проверяет, можно ли считать систему, проходящую тест Тьюринга, обладающей сознанием и пониманием.
Суть эксперимента
Сценарий: Представьте, что вы (человек, не знающий китайского языка) находитесь в комнате. У вас есть:
Корзина с иероглифами (вы воспринимаете их как бессмысленные значки).
Подробная инструкция на вашем родном языке (например, на английском), которая объясняет, как манипулировать этими значками на основе других значков. Пример правила: «Когда ты видишь символы "Иероглиф1" и "Иероглиф2" рядом, положи в выходное окошко символы "Иероглиф10" и "Иероглиф15"».
Процесс: Снаружи в комнату передают листок с вопросами или историями, написанными на китайском (для вас это просто набор непонятных символов). Вы, следуя инструкциям, манипулируете иероглифами и через некоторое время выдаете наружу другой набор символов — осмысленный ответ на китайском.
Результат: Для человека снаружи, общающегося с комнатой, она проходит тест Тьюринга. Он уверен, что внутри находится существо, прекрасно понимающее китайский язык.
Ключевой вопрос и вывод Сёрла
Вопрос: Понимает ли китайский язык человек внутри комнаты?
Ответ Сёрла: НЕТ. Человек внутри просто механически следует синтаксическим правилам, не понимая семантики (смысла) символов. У него нет никакого понимания, о чем был вопрос и что он ответил.
Главный аргумент и его значение для ИИ
Сёрл сформулировал центральный тезис:
Синтаксис (правила манипуляции символами) сам по себе недостаточен для семантики (понимания смысла).
Применение к искусственному интеллекту:
Компьютер, каким бы мощным он ни был, в этой аналогии — это комната.
Программа — это инструкция по манипуляции символами (0 и 1, или, в случае современных ИИ, токенами).
Сёрл утверждает, что даже если программа заставит компьютер вести себя так, как если бы он понимал (то есть пройдет тест Тьюринга), это не означает, что у компьютера возникло настоящее понимание, сознание или способность мыслить о чем-то.
Таким образом, «Китайская комната» — это аргумент против гипотезы «сильного ИИ», которая утверждает, что правильно запрограммированный компьютер действительно обладает сознанием. Сёрл не отрицает полезность «слабого ИИ» — систем, которые имитируют интеллектуальное поведение для решения практических задач.
Контраргументы и критика
Эксперимент неоднократно критиковали, вот основные контраргументы:
Аргумент «Системы»:
Понимает ли отдельный человек в комнате? Нет. Но понимает ли вся система в целом (человек + инструкция + листки с символами)? Критики утверждают, что да, понимание возникает на уровне всей системы, а не ее отдельной части.
Аргумент «Симулятора мозга»:
Что, если инструкция будет симулировать работу человеческого мозга, нейрон за нейроном, синапс за синапсом? В этом случае, если мозг порождает понимание, то и симуляция должна порождать его. Сёрл отвечал, что и в этом случае это будет лишь «симуляция понимания», как симуляция дождя не сделает ничего мокрым.
Аргумент от скорости и сложности: Некоторые считают, что при достаточной сложности инструкции и скорости ее выполнения в системе может возникнуть качественно новое свойство — понимание. Сёрл отвергал это, настаивая на принципиальном различии между синтаксисом и семантикой.
Применимость к современным ИИ:
Современные большие языковые модели (вроде GPT) часто называют «улучшенными китайскими комнатами». Они не имеют доступа к миру и смыслам, а лишь статистически предсказывают следующие токены на основе гигантского корпуса текстов. Они выдают осмысленные ответы, но вопрос о том, есть ли у них настоящее понимание, остается открытым и является предметом жарких споров.
18.10.2025 09:02:45, Cat-S


Они оперируют не буквами, а токенами, кусочками слов
И набирают статистику на контекстах.
Конечно, связки "мясо + добыча" будут встречатся в текстах миллионы раз.
А связки "мясо + имаджинировать" , например, редко
18.10.2025 11:44:54, Cat-S

Человек познает мир прямо, в ии опосредовано. Вы реально разницу не понимаете? 18.10.2025 11:51:26, Нельсон Мандела

18.10.2025 11:56:49, Cat-S

Серьезно, начните с классической философии)) Это все уже сто раз обболтано)) 18.10.2025 12:03:25, Нельсон Мандела


Теория эмерджентности предлагает стройное, естественнонаучное объяснение сознания, которое не требует привлечения сверхъестественных или дуалистических понятий (вроде «нематериальной души»).
Она универсальна: Она позволяет рассматривать сознание не как магическую искру, присущую только биологическим мозгам, а как потенциальное свойство любой достаточно сложной системы, способной к самоорганизации и созданию моделей. Это открывает двери для серьезного обсуждения сознания у животных, а также будущих форм искусственного интеллекта.
Она объясняет иллюзию «Я»: Объяснение «Я» как полезной, но все же иллюзорной модели, созданной мозгом для эффективного управления, — это мощный концептуальный инструмент. Он хорошо согласуется с данными нейронауки о том, что ощущение единства «Я» может нарушаться при повреждениях мозга.
18.10.2025 08:29:10, Cat-S

18.10.2025 11:31:44, Нельсон Мандела
Это вопрос адаптации к окружающей среде. Отсеки человека от воды, и он умрет. Отсеки ИИ от электричества, и он умрет. Разные источники питания, разные пути обмена информацией. Роботы вполне могут создать себе устойчивую среду для непрерывного функционирования. Пока человек более адаптивен, но и ИИ совершенствуется.
Вопрос поиска смысла жизни выходит на новый уровень:) 18.10.2025 12:25:05, Спой, птичка!
Вопрос поиска смысла жизни выходит на новый уровень:) 18.10.2025 12:25:05, Спой, птичка!

Опасность в том, что сам себе прописывать будет, научившись у человека. Ограничить его, конечно, можно, на данном этапе, не кормя новой информацией, но человек продолжает кормить, обучать и развивать его. Нельзя быть уверенным, что это процесс не выйдем из-под контроля, надо быть в постоянной «боевой готовности»:) Речь об этом.
18.10.2025 12:43:43, Спой, птичка!

Выйти из под контроля хороших и попасть к плохим - да, этого можно бояться. А бояться развития компилирующего устройства в самостоятельно думающее существо абсурд 18.10.2025 12:50:02, Нельсон Мандела

Отсеките голову - вот это правильное сравнение
18.10.2025 11:54:55, Cat-S


Его подход к пониманию сознания и интеллекта тесно переплетается с идеей эмерджентности, возникающей из сложных нейросетевых систем
Мысли как векторы активности: Хинтон неоднократно высказывал мысль, что мысль — это не символическое выражение, как в традиционном ИИ, а "огромный вектор нейронной активности". Эти векторы обладают причинной силой: один вектор вызывает другой, формируя цепочки "рассуждений". Это прямо соответствует идее внутренних моделей, создаваемых системой
Хинтон подчеркивает, что искусственный интеллект — это не аналог человеческого, а принципиально новая форма инопланетного интеллекта. Ключевое отличие, которое он отмечает, — это способность тысяч нейросетей мгновенно обмениваться знаниями, тогда как люди вынуждены передавать информацию медленно.
18.10.2025 08:04:51, Cat-S

Т.е. сознание - это не какое-то волшебство, увы, а просто способность программы писать другие программы и саму себя переписывать, анализировать, исправлять ошибки.
А вот физический носитель сознания может быть разным - не обязательно человек.
Не знаю, как Вам, лично мне идеи взорвали мозг, я не о чем подобном раньше не думала...
18.10.2025 08:16:25, Cat-S

Листаю расшифровку текста в ютубе.
42:36. Допустим даже у тебя есть машина Тьюринга и достаточно памяти… – допустим, перевод некачественный, раздражает тыкание, и раздражает в русском использование 2-го лица где попало. Машина Тьюринга – абстрактное понятие, память у нее – бесконечная лента. Ее у меня не может быть ни при каких допущениях.
Про ИИ не долистала.
17.10.2025 12:58:48, Птица Сыйсу
42:36. Допустим даже у тебя есть машина Тьюринга и достаточно памяти… – допустим, перевод некачественный, раздражает тыкание, и раздражает в русском использование 2-го лица где попало. Машина Тьюринга – абстрактное понятие, память у нее – бесконечная лента. Ее у меня не может быть ни при каких допущениях.
Про ИИ не долистала.
17.10.2025 12:58:48, Птица Сыйсу
Посмотрела по последней ссылке. Интервью понравилось, именно философские аспекты. Насчет ИИ, даже не знаю, что тут можно обсудить, уже обсуждали несколько раз.
Понимаю (согласна) его по основным моментам:
1. Развитие ИИ остановить нельзя, и этого не произойдет, т.к. конкуренция, дух времени, много пользы.
2. Все, что мы можем - митигировать опасности по мере возникновения.
Я вижу, что так происходит со всеми процессами, связанными с прогрессом.
3. Может ли ИИ стать умнее человека - пока точно сказать нельзя, но вполне вероятно. Такие понятия, как сознание, чувства, ощущения, субъективный опыт могут стать доступны ИИ, вернее, «субъективный опыт» уже точно есть. Мы не можем быть уверены, что для ИИ это все недостижимо, т.к. сами не можем толком объяснить эти понятия, философия наука не точная.
4. Насчет безопасности - люди не согласованы, и, вероятно, не будут.
Еще понравились размышления насчет интуиции в целом.
Нейросети хорошо моделируют человеческую интуицию.
В общем, будущее не предсказуемо:) 17.10.2025 12:04:01, Спой, птичка!
Понимаю (согласна) его по основным моментам:
1. Развитие ИИ остановить нельзя, и этого не произойдет, т.к. конкуренция, дух времени, много пользы.
2. Все, что мы можем - митигировать опасности по мере возникновения.
Я вижу, что так происходит со всеми процессами, связанными с прогрессом.
3. Может ли ИИ стать умнее человека - пока точно сказать нельзя, но вполне вероятно. Такие понятия, как сознание, чувства, ощущения, субъективный опыт могут стать доступны ИИ, вернее, «субъективный опыт» уже точно есть. Мы не можем быть уверены, что для ИИ это все недостижимо, т.к. сами не можем толком объяснить эти понятия, философия наука не точная.
4. Насчет безопасности - люди не согласованы, и, вероятно, не будут.
Еще понравились размышления насчет интуиции в целом.
Нейросети хорошо моделируют человеческую интуицию.
В общем, будущее не предсказуемо:) 17.10.2025 12:04:01, Спой, птичка!


От создателя искусственного интеллекта Джеффри Хинтона.
То, что он носится по всему интернету с заявлениями об опасности ИИ, я знала с начала 2025 года. И примерно год относилась к этому очень легкомысленно.
Типа, старый, заслуженный ученый слегка выжил из ума, ну, бывает, никто не застрахован.
А вот неделю назад, начав слушать подкасты с Йошуа Бахом, который ровно о том же говорит, мнение свое кардинально поменяла.
18.10.2025 08:22:15, Cat-S

Более того основная опасность исходит от человека, ведь команды отдает он. Вот что человек в ии заложит, то на выходе и получит. Википедия что-то до сих пор не эволюционировала в самостоятельно думающее существо, а почему? Ведь знаний в нее понатыкано предостаточно. А потому, что не было команды снаружи на анализ и эволюцию. Собственно всё. 18.10.2025 11:48:57, Нельсон Мандела


18.10.2025 12:00:14, Cat-S


18.10.2025 12:32:03, Cat-S


Речь про будущее, правда, возможно, не очень отдаленное.
18.10.2025 14:26:27, Cat-S

Возьмём ваш пример с игрушками и коробочками. Он принимает на веру то, что вы задаёте. Возьмём человека и коробки. Вы вообще не кладёте зайца ни в одну из коробок и человек отвечает, что он в чёрной коробке. При этом человек может открыть они коробки и увидеть, что его обманули. А ИИ - нет. Более того, человек испытает эмоции от обмана и прореагирует на обман, ИИ нет 18.10.2025 15:44:42, Нельсон Мандела

Вы приписываете ИИ свои чувства и боитесь, а их у него нет)) 18.10.2025 15:32:18, Нельсон Мандела
Про ИИ там. Нам, не специалистам, все это можно можно обсуждать либо с философской (тоже дилетантской) т.з., либо с точки зрения научной фантастики, т.к. даже специалисты не уверены, куда это все ведет.
17.10.2025 12:15:18, Спой, птичка!


17.10.2025 10:35:27, Cat-S
Основную идею можете изложить? Или хотя бы тему обсуждения написать? Все это слушать нет ни сил, ни времени, ни желания.
17.10.2025 09:21:26, Ольга*
как тогда можно обсуждать, если можете наврать и исказить? в процессе обсуждения убеждать, что наврали и исказили?
хотите обсудить - сформулируйте кратенько.
это же неикнига, не фильм и не картина
17.10.2025 09:01:55, Шерлок
В процессе обсуждения может выясниться, что кто-то что-то неправильно понял в исходнике, в том числе Cat-s. Но если не знать исходника, как это можно понять? Только если найти какие-то нестыковки в кратком изложении, но это запутывает обсуждение.
17.10.2025 09:48:36, Анютта
хотите обсудить - сформулируйте кратенько.
это же неикнига, не фильм и не картина
17.10.2025 09:01:55, Шерлок


17.10.2025 08:31:26, УникаЛьнаЯ
Читайте также
Практическая цвето- и светотерапия: как улучшить эмоциональный фон
Как с помощью цвета и света вернуть дому уют, а себе — внутренний покой и энергию? Простые приёмы цвето- и светотерапии, которые поднимут настроение без ремонта и больших трат
Плоскостопие у детей: как распознать проблему и помочь вовремя
Плоскостопие часто не воспринимают всерьез, но оно может доставить детям и взрослым немало проблем. Расскажем, как выявить это нарушение на ранних стадиях и чем оно опасно.

