Философия Южного Парка: вы знаете, я сегодня кое-что понял
Философия Южного Парка: вы знаете, я сегодня кое-что понял читать книгу онлайн
Ложка меда поможет выпить самое горькое лекарство, а помощь массовой культуры позволит продраться сквозь паутину Канта. У философии в течение нескольких столетий была проблема с пиаром. Эта серия книг призвана изменить такое положение дел, показать, что философия — часть нашей жизни, и нужна она не только для того, чтобы отвечать на глобальные вопросы типа «Быть или не быть?», но и для ответов на такие маленькие вопросы как «Смотреть или не смотреть Южный Парк?» Глубокие размышления о телевидении, фильмах или музыке не сделают вас ни «чайником», ни «полным идиотом». Зато они могут сделать вас философом, тем, кто верит, что неизученная жизнь стоит того, чтобы ее прожить, а ранее пропущенный мультфильм — стоит просмотра.
Книга состоит из статей разных авторов (в осн. доценты и профессора кафедры философии), под редакцией Р. Арпа.
Внимание! Книга может содержать контент только для совершеннолетних. Для несовершеннолетних чтение данного контента СТРОГО ЗАПРЕЩЕНО! Если в книге присутствует наличие пропаганды ЛГБТ и другого, запрещенного контента - просьба написать на почту [email protected] для удаления материала
Чтобы провести тест, мы нуждаемся в трех комнатах. Комната 1 содержит испытательный прибор. Испытательным прибором может быть любой разумный человек (что, к нашей тревоге, в значительной степени дискредитирует почти каждого жителя Южного Парка!). В отчаянии, мы можем обратиться к ученому из эпизода «ШИКАРН-О», чтобы он выступил нашим испытательным прибором. Мы назовем его «мр. Ученый», поскольку военнослужащие в эпизоде предстают в таком свете, что их умственными способностями — можно пренебречь. В Комнате 2 мы поместим Картмана, который без сомнения скажет, что это — полный отстой и попросит курицы-KFC. Наконец, наш кандидат на тест — машина, запрограммированная, чтобы подражать Картману — в Комнате 3. Так как наша цель, по Турингу, не состоит в том, чтобы увидеть, может ли машина быть похожей на Картмана, а скорее убедиться, сможет ли машина думать, как Картман, мы воспрепятствуем обитателям комнат видеть друг друга и сделаем так, чтобы они общались друг с другом только в письменной форме. Мр. Ученый может спросить у находящихся в комнатах 2 и 3 что-нибудь, все что захочет. После достаточного периода взаимодействия между ними мы спросим его, кому он верит, кто, по его мнению — машина, а кто — настоящий Картман. Ясно, что если он сможет идентифицировать машину несколько раз подряд, наша машина — провалила тест Туринга. Но если машина большую часть времени сможет обманывать его, если он будет часто принимать ее за реального Картмана, то наша машина преуспеет или «пройдет» тест Туринга. И это, по словам Туринга, будет означать, что получен положительный ответ на его специфическую версию более общего вопроса «машина может думать?»
Туринг полагал, что в течение пятидесяти лет после опубликования его статьи, примерно к 2000-му году, успехи вычислительной технологии позволят построить машину, которая действительно сможет пройти его тест и проблема того, может ли машина думать, была бы решена. Сейчас, мы можем видеть, что он был чрезмерно оптимистичен в своих прогнозах. Хотя Вы можете найти множество «чат-ботов» в Интернете, довольно очевидно, что ни один из них не достаточно хорош, чтобы пройти тест Туринга, как он предполагал. Но это — не великий вопрос. Действительно важнейшая проблема — является ли тест Туринга приемлемым, правда ли машина, которая пройдет тест, будет интеллектуальной?
Возможно, Вам встречались машины, запрограммированные, чтобы действовать как человек. Даже если они правдоподобно выглядели, они по-прежнему действуют не как мы: это — только моделирование. Аналогично, независимо от того, как умело Картман притворяется роботом, он не робот. Он — мальчик, симулирующий поведение машины. Почему же мы должны думать, что компьютерное моделирование — даже очень хорошее или совершенное — является чем-то большим, чем моделирование? В конце концов, компьютерное моделирование грозы не делает никого сырым, а моделирование военного маневра — никого не убивает. Итак, почему мы должны согласиться, что компьютерное моделирование думающего человека — действительно думающий человек?
Мы можем ответить на этот вопрос, признав, что моделирование чего-либо не является одновременно дублированием этого. Почему? Вообще, идея состоит в том, что Вы не сможете моделировать интеллект, не будучи интеллектуальным, чтобы выдержать тест Туринга должен быть организован гибкий и творческий в ответах на вопросы механизм — который может функционировать только для интеллектуальной, думающей системы. Однако, такой ответ не убеждает всех. Во-первых, мы могли бы сослаться на то, что интеллект, который должен пройти тест, сосредоточен в программистах, а не в машине. И, во-вторых, кажется вполне логически возможным для машины обдурить нас — пройти тест Туринга, по-сути не делая реальных размышлений. Голографическое моделирование мр. Шляпы — не настоящая марионетка, потому что в нем упущены кое-какие моменты: шерстяная или хлопковая ткань или что-то типа носка, короче говоря. Возможно, что машина, моделируя мышление, аналогично пропускает некие важные аспекты настоящего разума?
Джон Серл, профессор университета Калифорнии в Беркли, и один из самых видных философов разума прошлых десятилетий, является, возможно, самым известным специалистом, в области экспериментов с мыслями, называемых аргументом китайской комнаты. Мыслительный эксперимент — просто детальный пример, который предназначен, чтобы помочь нам размышлять о философской проблеме. Некоторые мыслительные эксперименты, включая этот, также предназначены, чтобы играть ключевую роль в утверждении, о верности или ложности некоторых заявлений. Между прочим, этот специфический мыслительный эксперимент предназначается также, для критического анализа теста Туринга. Давайте же взглянем на него, еще раз, с точки зрения Южного Парка.
На сей раз, мы должны вообразить только две комнаты. В первой комнате мы снова разместим мр. Ученого. Во второй комнате — Кенни, надеясь, что он будет оставаться в живых достаточно долго, чтобы удовлетворить нашим целям. Все, что Кенни должен будет сделать — следовать некоторым простым инструкциям. Ах да, также важно, что он не знает китайского языка. Мр. Ученый, который бегло говорит на китайском языке, спрашивает у Кенни на китайском языке: «Что такое Южный Парк?» посредством китайских иероглифов. Кенни прочтет это китайское послание, в котором, конечно, ничего не поймет и использует сложный свод правил для составления ответа. Этот свод правил, с английскими наставлениями, состоит из списков китайских комбинаций символов, которые скоррелированы к другим китайским символам и английским словам. Кенни находит соответствующие правила, с трудом копирует символы, которые соответствуют символам, что представил ему мр. Ученый, а затем посылает новую комбинацию китайских иероглифов в другую комнату. Ученый исследует их и видит, что в ответном послании говорится: «заспанный обрыглый горный городок».
Итак, какова выгода от этого довольно сложного действа? Не будет ли казаться Ученому, что он только что общался с кем-то из другой комнаты, кто понимает китайский язык? В конце концов, он получил точный ответ на свое послание на китайском языке. И он может сделать это снова, много раз если пожелает. Но нам-то, конечно, ясно как день, что Кенни — ни бельмеса в китайском. При помощи словаря (какой же длины он должен быть!), он в состоянии ответить на вопросы Ученого, но это все без малейшего понятия со стороны Кенни. Он может быть в состоянии механически повторить иероглифы, но он ведь не знает или не понимает язык вообще.
Заявление Серла, состоит примерно в том, же, что может быть сказано относительно цифровой ЭВМ, которая проходит тест Туринга. Факт, что она может быть запрограммирована на предоставление ответа, который подходит к любому входящему вопросу, просто не дает права сказать, что машина, понимает что-нибудь вообще. Как метко выразился Серл, у цифровых ЭВМ может быть синтаксис (запрограммированный порядок слов, вроде «если х, то у» или «х либо у»), но никакой семантики (понимание или осознание значения «если х, то у» или «х либо у»).
Таким образом, то, что пропускает машина, — понимание. Согласно Серлу, в этом — главное различие (или одно из них, не суть важно) между сложной цифровой ЭВМ и человеческим разумом. Понимание здесь — во главе угла. Заявление Серла не состоит в том, что машины вообще не могут думать. Скорее он полагает, что только определенный вид «машины» — человеческий мозг или что-то очень на него похожее, может думать. Так, если мы можем создать машину, познавательная архитектура которой, подобна нашей собственной, с точки зрения всех сложных нервных связей и процессов, тогда Серл признал бы, что она смогла бы думать. Но пока мы рассматриваем цифровые ЭВМ, с которыми мы знакомы, он отрицает эту возможность.
Вероятно, для Вас не сюрприз, что не все соглашаются с Сер-лом в этом. Фактически, чем больше Вы узнаете о философии, тем больше Вы будете видеть, что серьезные возражения поднимаются против почти каждого интересного философского аргумента. Здесь мы рассмотрим только один вид ответа, который сам Серл называет Системным. Ранее мы согласились, что Кенни не понимает китайский язык, а отвечал он просто в силу своих способностей управлять китайскими иероглифами, согласно своду правил из словаря. Но почему мы спрашиваем, понимает ли Кенни китайский язык? Разве вопрос не в том, понимает ли вся система — состоящая из Кенни, комнаты, словаря и оборудования для коммуникаций — китайский язык? Вы испытываете желание сказать: «нет». Раз Кенни не знает китайского и работает с помощью других неодушевленных предметов, делая свое дело? В ответ, критик Серла мог бы указать, что у нас, на самом деле, есть только очень приблизительное понимание того, как получается, что человеческой нервной системе удается дать начало размышлению, значит — мы не должны быть слишком скептичными к некоторой другой системе, которая не может осуществить то же самое.