Выбери любимый жанр

Выбрать книгу по жанру

Фантастика и фэнтези

Детективы и триллеры

Проза

Любовные романы

Приключения

Детские

Поэзия и драматургия

Старинная литература

Научно-образовательная

Компьютеры и интернет

Справочная литература

Документальная литература

Религия и духовность

Юмор

Дом и семья

Деловая литература

Жанр не определен

Техника

Прочее

Драматургия

Фольклор

Военное дело

Последние комментарии
оксана2018-11-27
Вообще, я больше люблю новинки литератур
К книге
Professor2018-11-27
Очень понравилась книга. Рекомендую!
К книге
Vera.Li2016-02-21
Миленько и простенько, без всяких интриг
К книге
ст.ст.2018-05-15
 И что это было?
К книге
Наталья222018-11-27
Сюжет захватывающий. Все-таки читать кни
К книге

Об ИИ без мифов. Путеводитель по истории Искусственного Интеллекта - Черняк Леонид - Страница 5


5
Изменить размер шрифта:

Второй подход Тьюринг назвал «снизу вверх» (bottom up), он строится на качественно ином предположении, не имеющем столь древних философских корней. Реальные предпосылки к такому подходу впервые возникли у нейрофизиологов в 30-е годы прошлого века, их работы подтолкнули к мысли о машине, представляющей собой искусственно созданную нейронную сеть (Artificial Neural Network, ANN).

Деление возможных подходов к AI на два – на top down и на bottom up оказалось воистину провидческим, как почти все, что сделал Тьюринг за свою короткую жизнь. Действительно AI в последующем развивался независимо по указанным им альтернативным направлениям. Детальнее о каждом из двух – символьном и коннекционизме, о том, как складывалась их история на протяжении восьми десятилетий, мы расскажем в этой книге. Здесь же можно ограничиться замечанием о том, что символьный подход был востребован в 60–90-е годы. Неудивительно, ведь он обещал невероятно быстрые результаты без особых научных вложений, казалось, что для создания AI достаточно написать соответствующие программы для уже существующих или проектируемых компьютеров. И напротив, развитие коннекционизма в силу целого ряда объективных и субъективных причин, прежде всего из-за отсутствия нужной теории и технологий моделирования ANN, было отложено на несколько десятилетий. Однако в XXI веке ситуация развернулась на 180 градусов, символьный подход ушел в забвение и восторжествовал коннекционизм. На данный момент практически все известные внедрения AI основываются исключительно на коннекционизме. Он стал фундаментом всей индустрии AI, созданной за последние 10 лет, а примеры сохранившихся систем на базе символьного подхода во всем мире можно пересчитать по пальцам.

В главе 4 будет описана история символьного подхода к AI, а в главе 5 коннекционистского.

Проблема души и тела (психофизиологическая проблема) и эффект AI

Остановимся на одной из причин, почему один из подходов оказался тупиковым, а у второго, во всяком случае так видится сейчас, перспективы ничем не ограничены. Создание работающих систем с AI связано с проблемой, схожей с той, которую немецкие психофизиологи обозначили в середине прошлого века, назвав ее Leib-Seele Problem или Psychophysisches Problem, в английский вошел перевод первого варианта Mind and BodyProblem, в русский же второго – Психофизиологическая проблема. Отношения между душой и телом играют центральную роль в современной медицине, психотерапии и психопатологии. Разумеется, с моделью мозга все гораздо проще, но принцип тот же, AI, как сознанию человека, нужна материальная оболочка, тело. В середине пятидесятых начались первые исследования в области символьного подхода к AI и тогда без каких-либо сомнений на роль тела назначили компьютеры, рассуждая следующим образом: мозг оперирует символами и компьютер оперирует символами, раз так, то почему бы и не вложить в него мыслительные способности (по Тьюрингу, сверху-вниз). Однако при этом не учли одной вещи, того, компьютер в том виде как он сегодня существует является программируемым устройством и инструментом для создания AI должно стать программирование. Программируемый мозг – нонсенс.

Нынешние компьютеры – прямые наследники тех, которые создавались в сороковые годы прошлого века с единственным желанием – автоматизировать трудоемкие процедуры расчетов и только, ничего иного от них и не ожидали. Но неожиданно оказалась, что путем перепрограммирования те же компьютеры можно использовать для решения множества иных задач.

Все существовавшие и существующие компьютеры строятся по одной из двух архитектур, созданных три четверти века назад. В подавляющем большинстве (99,9 %) по принстонской, которую не вполне справедливо называют фон-неймановской (ФНА). Неизмеримо меньшее число специализированных сигнальных процессоров созданы по альтернативной гарвардской архитектуре. Этими двумя архаичными на сегодняшний день решениями ограничено все разнообразие компьютерных архитектур. Их объединяет главное – программный принцип управления последовательным выполнением команд, в том и другим случае процессор отрабатывает записанную в память программу. В первом случае данные и программа хранятся в общей памяти, а во втором – раздельно. За семьдесят с лишним лет в ФНА внесены многочисленные усовершенствования, способствующие компенсации присущих ей врожденных недостатков – неспособности к распараллеливанию вычислений, ограничение пропускной способности канала процессор-память (проблема бутылочного горла) и других.

(window.adrunTag = window.adrunTag || []).push({v: 1, el: 'adrun-4-390', c: 4, b: 390})

Программное управление известно с античных времен, о его использовании в автоматонах подробно рассказано в главе 3. На компьютеры его распространил Чарльз Беббидж, создав проект Аналитической машины, для этого он, с одной стороны, позаимствовал математические принципы разделения сложных расчетов на простые операции у Гаспара де Прони, а с другой, идею записи программы на перфокарты у Жозефа Жаккара, изобретателя ткацкой машины. Совмещение одного с другим позволило создать архитектуру Аналитической машины, предтечи ФНА. В компьютерах принципы программного управления Бэббиджа сохранились с небольшими модификациями, такими как условные и безусловные переходы и разного рода детали. В целом же нужно признать, что компьютер генетически непосредственно связан с простейшими автоматами. Это кажется весьма странным, но дистанция между Аналитической машиной Бэббиджа и ФНА не слишком велика.

Жизнь показала: рожденный считать – думать не может, попытки обнаружить хотя бы признаки интеллекта в программных системах, претендующих на эту способность, приводят к огорчающему выводу – любые потуги запрограммировать AI в конечном счете сводятся к построению систем, лишь обладающих внешними признаками AI. Очень похоже на известную максиму В. С. Черномырдина: «Хотели как лучше, а получилось как всегда». Этот печальный факт американский автор книг по истории и философии AI Памела МакКордак предложила называть «эффектом AI» (AI effect). Эффект AI обнаруживается во всех без какого-либо исключения программах, которые по замыслу авторов должны были бы демонстрировать наличие у них разума. При непредвзятом анализе в 100 % случаев обнаруживалось, что их поведение на самом деле псевдоразумно и имеет простое логическое объяснение. Как сказал один из виднейших специалистов в робототехнике Родни Брукс: «Магии AI нет, но есть обычные вычисления».

То же самое, но более образно, выражено в утверждении, известном как «теорема» Теслера: «AI – это то, что еще не было сделано» (AI is whatever hasn't been done yet.). Теоремой оно названо не вполне корректно, поскольку не содержит доказательства. Ее сформулировал Дуглас Хофштадтер, автор получившей известность книги «Гедель, Эшер, Бах: эта бесконечная гирлянда», за нее автор был удостоен в 1980 году Пулитцеровской премии в номинации «Нехудожественная литература». Хофштадтер представитель тех, кого называют AI-скептиками, он категорически отвергает возможность создания искусственного разума в форме сильного или тем более общего AI. Когда в 1996 году мир испытал шок, вызванный поражением Гарри Каспарова в поединке с суперкомпьютером компании IBM, он совершенно уверенно заявил: «Разумеется, победа Deep Blue стала поворотным моментом в истории AI, но она ни в малейшей степени не свидетельствует о наличии разума у компьютеров».

История появления самой «теоремы» такова. Ларри Теслер, именем которого она названа, известный специалист в области человеко-машинного интерфейса, работал в Xerox PARC, а позже в Apple, Amazon и в Yahoo!. Случилось так, что однажды в разговоре с Хофштадтером он поведал о наблюдаемом им феномене – если решение некоей задачи вначале может создать о себе иллюзию машинного мышления, то при детальном анализе того что внутри, оказалось – это обычные программы и никаких чудес и решение этой задачи считать примером «настоящего мышления». Наделить мыслительными способностями программируемый автомат невозможно, на этом споткнулись и великие Марвин Минский с Джоном Маккарти, и все-все-все, пошедшие по предложенному ими пути. Будучи писателем, Хофштадтер всего лишь придал этой мысли более лаконичную форму.