Иллюзии сознания

нам только кажется, что мы знаем, кто мы


Previous Entry Share Next Entry
Тест на сознание
kant_mortal
alexander_xom
Теста на сознание нет. Просто потому что нет самого определения сознания, на основании которого можно было бы построить тест. Но может быть попробуем? Из близких тестов существует только тест Тьюринга, основанный на возможности сознательного существа "поддердживать беседу", причем почему-то в ограничивается время на выяснение. При этом, точного математческого критерия "поддержки" нет, хотя сам Тьюринг был педантным математиком. Критерием является только мнение другого человека за шторкой. Понятно, что это не критерий, потому что зависит от субъективного мнения и просто настрения этого человека. Отсюда все спекуляции в СМИ про такие тесты.

Что же может быть более точным критерием? Мы же все таки что-то знаем о сознании, чтобы ответиь на этот вопрос. Например, что только человек формирует устойчивую автобиографическую память. Или имеет общую картину мира, даже если ему ее никто конкретно не рассказывал (формируется по мере опыта сама). Проблема скорее в том, что поведенческий критерий только один - речь, текст. То есть критерий информационный, а современное программирование - это универсальный способ имитировать такие сущности. Калькулятор тоже ИИ, отвечает на вопросы при нажатии =, только в очень ограниченной области арифметических операций. Имитировать удается все больше таких областей из арсенала человеческих способностей - шахматы, го, сценарии, музыка, рисунки, воэжение авто. И все равно все это имитация, потому что (интуитивно - точного критерия и теста же нет) мы не считаем эти имтации обладателями сознания. Что же нельзя сымитировать?

Можно ли сымитировать ту же автобиографическую память, которой человек вродже бы отличается от животных? Только не вопрос о том, где ты родился, что посилам даже Веселову с Гусманом, не говоря уж о ребятах из IBM. Что-то посложнее, когда память об  изменении своих состояний сказывается на последующих ответах. Для этого надо иметь представление о себе, микрокартину своего мира, что уже не так тривиально. Или это тоже можно сымитировать?

Есть еще один потенциальный критерий, который непонятно как применить, так как он очень теоретический. Гальперин утверждал, что сознание (ориентировочная деятельность в его интерпретации) есть у всех, кто имеет варианты своего проведения в среде и вынужден противовопоставлять себя среде. http://uclg.ru/education/psihologiya/lecture_lec_psihika_kak_orientirovochnaya_deyatelnost_subyekta_p_ya_galperin.html Схожие мысли высказывал тут s_e_l_i_k.

  • 1
Если Вам будет интересно, посмотрите мои соображения на тему о тайне человеческого мышления (сознания) http://sahonko.livejournal.com/51137.html

То,о чем Вы пишите - достаточно исхоженная тема. По поводу перехода уровней более объемно изложено у Турчина В. в Феомене науки. Он это называет метасистемным переходом. И все указанное Вами хорошо обосновывает, а не просто констатирует. Про УР и научение у животных как программирование тоже уже не новое, потому что компьютерная метафора мозга известна с 60-х прошлого века. И тема эта гораздо шире, можно смотреть даже на такие учения как культурно-историческое Выготского. А ориентировочная деятельность, являющаяся основой психики сознания, очень хорошо раскрыта у Гальперина. Судя по терминам, Вы с ней знакомы. Но почему то допустили ошибку - нервная система появилась не потому что не хватает места в геноме для программ, а потому что живому (двигающемуся) надо оперативно принимать решение о своих действиях в новой обстановке.

И с научением путем подражания Вы немного ошибаетесь - оно появляется гораздо раньше, еще у таких "рептилий" как утята Лоренца. Правда у них научение еще примитивно, и называется "импринтинг" (запечатление). Но вот у котенка с повторением движений умывающейся мамы гораздо лучше - наберите в ютюбе много видео. И отвечают за это зеркальные нейроны. Еще неточность в том, что научение - это не УР. И это не программирование, а настройка уже имеющейся программы. Установление параметров, которые при безусловном вшиты, а в обучаемой программе устанавливаются в детстве научением.

Это если коротко, но вопрос этим не исчерпывается. И определение интеллекта, данное Вами, не исчерпывает весь его объем. Вы ухватились только за одну из особенностей. На TED есть видео про теорию интеллекта как повышение вариантивности системы для адаптации. Есть гипотеза интеллекта как модели среды, которая позволяет выигрывать у среды энергию как в казино, что согласуется с теорией на TED (не помню автора). Это более всеобъемлющие теории включают Вашу как часть.

Edited at 2017-02-02 08:39 pm (UTC)

Спасибо за обстоятельные поучения. :)

У ИИ нет собственных эмоций, а у человека есть. Даже если когда-то для ИИ создадут эмоции, то они будут совсем не такие как у человека.
Так что бить в сторону эмоций. ИИ сможет отвечать исключительно по записанным в памяти ответам, т.к. сам не переживает.
Мне кажется, что женщины, которые больше внимания в общении уделяют эмоциональным переживаниям, некоей эмоциональной общности, быстрее смогут "расколоть" ИИ.

Если говорить о речи, то эмоции, передаваемые ей, успешно имитируются. Как? Во-первых, сейчас есть очень эффективные алгоритмы по определению тональности в текстах. Сам этим занимался не так давно. И имитация такой же тональности при генерации текста как обратная операция тоже возможна. Дальше только несложный алгоритм тональности входного и выходного текста. На что типа машина обижается и как, а на что смеется.

В принципе эмоции - не самый сложный механизм регуляции, возникший судя по всему еще у рептилий (некоторые приписывают их только начиная с млекопитающих). И сами эмоции ничего не говорят о наличии сознания. Может они идут параллельно в эволюции, причем эмоции появились, думаю, раньше. НО сознание не является частью эмоций и наоборот.

Я, кстати, поместил ссылку на Ваши мысли о сознании из нашей беседы в текст этого поста. Они очень схожи с мыслями видного психолога начала прошлого века Гальперина.

Речь не о словах и тональности в текстах. А именно о попытке выявить эмоции. В тесте Тьюринга несколько вопросов-ответов. Попытаться раскрутить на эмпатию, сопереживание и тому подобное.
У ИИ нет эмоций. Пока что никаких. Он копирует человеческие, но их осознать в принципе не сможет, переживалки нет. Вот и бить в этом направлении. Даже если роботам сделают собственные эмоции, то они будут совсем не как у людей.
Попробую изобразить пример вопроса роботу: "Ребенок держит в руках красивые воздушные шарики, радуется и бежит с ними по комнате, немного бьётся мизинчиком ноги об угол шкафа, но сохраняет равновесие и, молодец!, удерживает в руках свои красивые шарики. Смотрит на них. Какие эмоции у него на лице?"
Человек скажет, что лицо скривится от боли. Мизинчик - это очень больно.
Робот, теоретически, не поймет. Мелкий мизинчик на фоне красивых шариков.
Как-то так.

Мне кажется, что если женщинам в философском сообществе сформулировать задачу "раскрутить робота на эмоции", то они сумеют составить вопросы, а то и диалог, гораздо лучше меня. Женщины очень тонко воспринимают эмпатию, переживания и всё в этом духе. Они точно любого робота на чистую воду выведут. :)

Вы нашли секретного тестировщика на сознание - женщина с инструкцией раскрутки на эмпатию ))) На самом деле заложить псевдоэмпатию к каким-то конкретным понятиям не сложно. Анализ тональности тонко определят такие отношения. Например, к ребенку отношение всегда уси-пуси, чтобы он не делал, а если он ушибся (тонально окрашенное) - это плохо/больно. И Ваш случай под это подпадает. Но Вы мыслите в верном направлении - алгоритм тональности плохо определяет рекурсивные ситуации, когда одно вложено в другое причем разное. Именно на этом он валится.

Edited at 2017-01-30 08:24 pm (UTC)

Ага. Я подумал, что еще круче будет смешать то, что робот в принципе не способен прочувствовать. Например: Мама приготовила ребенку вкусный ужин. На тарелочке картошечка, ароматный зеленый горошек, красивый стручок чилийского перчика, сладкая кукуруза. Ребенок всё радостно съел и поблагодарил маму. Ему пора идти спать. Спокойной ночи!
У человека глаза округлятся при сочетании ребенок и чилийский перчик. Робот же знает химсостав перчика и то, что он безопасен для человека. Всё съедобно. О впечатлениях он знать не может. :)
Но женщины придумают круче! Они в этом мастерицы :)

Да, именно такие вещи тут могут дать хороший результат, хотя это даже не рекурсия, а наличие общей картины мира с отношением к нему субъекта. И вот на этих отношениях любой имитатор завалится, так как еще никому не удалось ее создать. А она очень хитрая - картину мира невозможно заложить по всем возможным отношениям, человек закладывает только часть, но все отношения в картине мира присутствуют. Это не то чтобы тест на сознание, скорее на общий интеллект. Но это должны бытьне просто вопросы, Ватсон это может, победив в аналоге "Своей игры"(Jeopardy). Это должно быть выражение отношения, эмпатии.

Edited at 2017-01-30 08:59 pm (UTC)

Тут есть два интересных аспекта.

Постоянная путаница между тем, что осознаётся и кто осознаёт. Отсюда постоянные попытки смоделировать (сымитировать) то, что осознаётся в отсутствии того, кто осознаёт. Иногда наоборот.

Второй - более общий и обескураживающий:
Смоделировать то, не знаю что. Другими словами, замалчивание отсутствие определений и подмена таковых намёком на то, что вы, дескать, понимаете, о чём речь. Типа, вы же умные люди...

И ещё одно. Всевозможные тесты Тьюринга, и тому подобные, далеко позади обычного теста на дееспособность.

Edited at 2017-01-30 07:43 am (UTC)

Что значит дееспособность?

Отсутствие определения сознания не замалчивается, на него прямо указано в начале поста. В общем-то и цель поста - попробовать найти такие признаки сознания, которые можно проверить тестом. И выдвигаются гипотезы.

На счет того, что моделируется не кто, а что сознается. А как Вы это разделите? Не в уме, а в каких-то внешних проявлениях? Никак. Поэтому мы не можем напрямую моделировать того КТО. И надеемся только, что определив ЧТО, мы определим наличие КТО.

Отсутствие определения сознания не замалчивается, на него прямо указано в начале поста. В общем-то и цель поста - попробовать найти такие признаки сознания, которые можно проверить тестом. И выдвигаются гипотезы.
То, что осознаётся - окружающий мир. Со всеми его явлениями, предметами и прочим. Смоделировать мир и проверить тестом? Это невозможно. Именно поэтому окружающий мир пытаются подменять кучей датчиков. Либо же говорят, что датчики - это часть того, кто сознаёт. Именно про такую путаницу я и говорил.
Про отсутствие определения - я просто повторил ту же мысль.

И надеемся только, что определив ЧТО, мы определим наличие КТО.
Что - мир. И как теперь будем определять "кто"?

"ЧТО" тут - не мир, а результат, выданный алгоритмом, который мы хотим верифицировать. Это просто текст. В нем действительно нет КТО (условно алгоритм осознания), но есть результат - ЧТО, который возможен только когда есть КТО (сознание).

Edited at 2017-01-30 08:23 pm (UTC)

Немного не так.
Есть то, что осознают. Есть тот, кто осознаёт. И есть описание, которое выдаёт осознающий осознаваемое. Лучше развернуть это таким образом. Чтобы не путать и не смешивать под "что" и то, что осознают, и описание осознанного.

Но что это меняет? По прежнему нет того, кто осознаёт. Если вы называете его алгоритмом, то можно и так, но погоды это не сделает ни на йоту.

Я и не предлагал ничего менять. У нас есть возможность проверять только то, что выдано условным алгоритмом - "описание осознанного".

Я бы не стал называть"его" алгоритмом. Поскольку "он" не является чёрным ящиком.
А если и называть, то констатировать можно одно, что алгоритма нет. И вряд ли будет. Поэтому это даже не гипотеза, а фантазия. Хочется, чтобы он был, но его нет. И тестировать некого. Ага.

Почему его нет? Что порождает НИКТО? ))

Простите, не понял.

"Хочется, чтобы он был, но его нет. И тестировать некого"

Ааа. Ну да. Раз нет того, кто осознаёт (он только в фантазии), то и порождаемые им описания - там же.

Почему его нет? Он есть, только недосягаем для непосредственного наблюдения.

Ну да. В наших фантазиях. Которые никак нельзя назвать гипотезами. Гипотезы - как бы это сказать, более строгие и формализованные должны быть. А это фантазия. И пожелание. Да.

Вы сомневаетесь, что Вас есть то, что порождает Ваше сознание? ))

Моё существо - и есть то, что порождает моё сознание, не часть меня, а всё моё существо. Не употребляю местоимение 1 л. ед.ч. чтобы не провоцировать на разговоры про эго, которого нет.

Edited at 2017-01-30 09:00 pm (UTC)

Когда я (естественный интеллект ;) смотрю на окружающий меня мир, и вижу в нём вас (другой ЕИ), то предполагаю (и только, могу ошибаться при этом), что на "входе" у вас тот же самый мир. Но наверняка я этого не знаю.
А в случае чёрного ящика я обязан знать (и могу), что у него на входе и на выходе. Но вы - не ЧЯ, вы другой ЕИ.

Edited at 2017-01-30 08:38 pm (UTC)

Для Вас я ровно - ЧЯ. С одинаковым входом с Вами. Выход разный, но в чем то схож, поэтму Вы предполагаете, что я тоже ЕИ как и Вы (коим себя считаете).

Э... нет! Вы - ЕИ. И на входе у нас не одно и то же. От слова "совсем". Тот же мир, но воспринимаем мы разное.

Хорошо, на входе согласен тоже, но по разному воспринимаемое. Но почему ЕИ, если я зомби человекоподбный, откуда Вы знаете?

Вот знаю. Из мира. Я уловил это знание, и теперь оно у меня есть. А зомбей - нет. Я это тоже знаю. Зомби - это фантазия.

Ну это, по меньшей мере не логично ))

Хм, странно. Ну пусть будет, что я знаю это из той части мира, которая называется нашей перепиской. Для вас это будет логично. А мне логично и предыдущее.

Заметьте, что не всякий может узнать из переписки о вашем существовании. Я - смог ;)

Edited at 2017-01-30 09:03 pm (UTC)

Теста на сознание нет. И вряд ли будет
И компьютер будущих поколений убедительно расскажет автобиографию, и общая картина мира у него вполне может быть. А вот речи и текстов нет ни у кота, ни у грудного младенца, а все же они кричат от боли. То есть мир внутренних ощущений у них есть, как этот феномен не называть

Если говорить о сознании именно как о ощущении себя в мире, то полностью согласен. Но в посте просто в силу обстоятельств я все таки вынужден иметь в виду именно человеческое сознание, выраженное в речи, так как возможность судить о нем есть только через речь, а тест проводить в сети (условие общения с имитатором).

***Если говорить о сознании именно как о ощущении себя в мире, то полностью согласен.

Так все остальное – это не о сознании, это об ином


Тест Тьюринга в наше время можно заменить на компьютерное тестирование. У человека может быть человеческий опыт - воспоминания о семье, детстве и т.п., подделку которых можно анализировать программно.

  • 1
?

Log in