Mihail Zaborskih
2006-01-29 21:43:16 UTC
=============================================================================
* Форвард сделан Mihail Zaborskih (2:5010/258)
* Ария : ru.computerra
* От : News Robot, 2:5020/400 (27 Янв 06 07:08)
* Кому : All
* Тема : Вторжение электронных словарей Автор: Владимир Гуриев
=============================================================================
АДРЕC: http://www.computerra.ru/focus/249043/
Вторжение электронных словарей
Автор: Владимир Гуриев
Опубликовано 26 января 2006 года
Я уверен, что через пятьдесят лет станет возможным программировать
работу машин с емкостью памяти около 106 так, чтобы они могли играть
в имитацию настолько успешно, что шансы среднего человека установить
присутствие машины через пять минут после того, как он начнет
задавать вопросы, не поднимались бы выше 70%. Первоначальный вопрос
"могут ли машины мыслить?" я считаю слишком неосмысленным, чтобы он
заслуживал рассмотрения. Тем не менее я убежден, что к концу нашего
века употребление слов и мнения, разделяемые большинством
образованных людей, изменятся настолько, что можно будет говорить о
мыслящих машинах, не боясь, что тебя поймут неправильно.
Алан Тьюринг, "Может ли Машина мыслить?", 1956 (1950)
Перевод Ю. Данилова
И в книге, и в интервью Джефф Хокинc ясно дает понять, кто здесь д"Артаньян.
Естественно, что создатель новой теории считает все остальные подходы
ошибочными - а оппонентам в общем-то и крыть нечем, поскольку успехи
разработчиков ИИ по части разработки собственно машин с интеллектом очень и
очень скромны. Однако наполеоновским планам компании Numenta угрожает не только
то, что Хокинc может ошибаться, но и отсутствие ответа на главный вопрос ИИ: а
можно ли в принципе создать хоть сколько-нибудь "разумный" компьютер.
Знаменитое эссе Алана Тьюринга, отрывок из которого вынесен в эпиграф,
называется "Может ли Машина мыслить?"(Собственно, оригинальная статья
называется "Computing machinery and intelligence". А название "Can the
Machine think?" было дано одной из посмертных републикаций, откуда
перекочевало в классический русский перевод), но сам ученый отверг
столь нечеткую формулировку, предложив использовать в качестве
критерия разумности машины процедуру, которую позднее назвали тестом
Тьюринга. Если машина сможет убедительно имитировать человеческие
реакции, значит, ее можно считать мыслящей, и точка. Тьюринг не
пытался ответить на вопрос, могут ли компьютеры обладать независимым
сознанием, но нигде не отрицал это в явном виде. Больше того, из
приведенных в конце статьи реплик на возражения оппонентов слегка
пристрастный читатель вполне может заключить, что Тьюринг вовсе не
исключал такой возможности, но, похоже, считал преждевременным ее
обсуждение(Очень неплохой комментарий к обсуждаемой статье Тьюринга
можно найти на "http://plato.stanford.edu/entries/turing-test"
plato.stanford.edu/entries/turing-test).
Тем не менее именно этот некорректный вопрос о сознании машин не давал
покоя как разработчикам систем ИИ, так и поначалу восторженным, а
потом все более разочарованным наблюдателям. Hеосторожные заявления
самих разработчиков и усилия фантастов, сформировавших в общественном
сознании человекоподобный образ машинного интеллекта, привели к
ожиданиям, которые наука не могла и, в конечном счете, не смогла
удовлетворить. А в начале 1980-х гг. выяснилось, что и с тестом
Тьюринга, пройти который должен каждый уважающий себя машинный
интеллект, тоже не все так просто.
Китайская комната
Джон Серль "Loading Image..." width=160
align=right border=0>В 1980 году в журнале The Behavioral and Brain
Sciences была опубликована статья "Разум, мозг и программы"
("http://members.aol.com/NeoNoetics/MindsBrainsProg-rams.html"
"Minds, Brains, and Programs") американского философа Джона Серля
(John Searle). Серль был не первым, кто задумался о том, могут ли
современные подходы вообще привести к созданию разумных машин, но ему
первому удалось придумать красивую и наглядную модель, бросающую тень
на святой Грааль разработчиков ИИ.
"Представьте себе, - писал Серль, - что я нахожусь в комнате с
корзинами, заполненными табличками с китайскими иероглифами. Я не знаю
китайский. Для меня все эти иероглифы в буквальном смысле китайская
грамота. Hо у меня есть подробная инструкция на английском языке,
описывающая взаимосвязи между этими символами. Мне не нужно понимать
значение китайских иероглифов, чтобы производить с ними действия,
описанные в инструкции.
Вне этой комнаты находится группа людей, понимающих китайский. Они
передают мне таблички с иероглифами, я же на основании инструкции
отдаю им другие таблички с иероглифами. Этих людей можно назвать
"программистами", меня - "компьютером", а корзины с табличками -
"базой данных". Переданные мне таблички назовем "вопросами",
переданные мною - "ответами".
А теперь представьте, что инструкция составлена таким образом, что мои
"ответы" неотличимы от тех, которые бы дал человек, свободно владеющий
китайским. В этом случае я прохожу тест Тьюринга. Однако мы-то с вами
знаем, что я не понимаю китайский язык и никогда не смогу его выучить
таким способом, потому что не существует способа, с помощью которого я
мог бы понять значение этих иероглифов"(Цитируется по более поздней
публикации "Is The Brain"s Mind a Computer Program?", опубликованной в
Scientific American в январе 1990 года. Интересно, что эта статья тоже
начинается с привычного вопроса: "Может ли машина мыслить?" В ней
Серль отвечает на многочисленные возражения оппонентов и уточняет -
точнее, ужесточает - свою точку зрения, отрицая принципиальную
возможность создания работающей (то есть мыслящей) программной модели
человеческого мозга).
Так, по Серлю, устроен и компьютер, оперирующий символами, но не
понимающий их значения. Из синтаксиса невозможно вывести семантику. А
значит, невозможно и построить мыслящую машину - по крайней мере,
оставаясь в рамках формального подхода.
Hесмотря на внешнюю простоту, аргумент Серля оказал очень сильное
воздействие на сообщество разработчиков ИИ, и если сегодня страсти
немного поутихли, то лишь потому, что приверженцы противоположных
точек зрения уже обменялись всеми возможными аргументами; к тому же
тех, кто верит в возможность создания машинного разума(Для этого
направления разработок ИИ Серль ввел термин Strong AI - в
противоположность Weak AI, где такая глобальная задача не ставится, а
системы ИИ рассматриваются только как инструмент для выполнения
определенных функций) и работает над решением этой задачи, сегодня не
так уж много.
Джефф Хокинс в своей книге использует "китайскую комнату" для критики
существующих подходов, однако полностью игнорирует расширенную
аргументацию Серля (Что для человека, согласного с концепцией
функционализма (см. интервью), довольно странно): "Можно представить
себе совершенную, до последнего синапса, компьютерную модель пептидов
гипоталамуса. С тем же успехом мы можем вообразить симуляцию окисления
углеводородов в автомобильном двигателе или симуляцию процесса
переваривания пиццы. Эмуляция работы мозга ничуть не реальнее эмуляции
двигателя или работы желудка. Вы не сможете заправить автомобиль
"эмулированным" бензином и не сможете переварить пиццу, запустив
нужную программу. Очевидно, что и эмуляция процессов познания точно
так же не воспроизведет сопутствующие нейробиологические эффекты"("Is
The Brain"s Mind a Computer Program?", Scientific American, 1990).
Квантовый компьютер Роджера Пенроуза
Философских школ, по-разному определяющих, что такое разум и сознание,
сегодня немногим меньше, чем философов, однако все подходы можно
классифицировать следующим образом: оптимистическая (в контексте
Strong AI) точка зрения гласит, что наше мышление поддается
алгоритмизации, тогда как пессимистическая предполагает, что
деятельность человеческого разума ни к вычислениям, ни к алгоритмам
свести нельзя, а значит, и нельзя "повторить" в компьютерном коде.
Аргументы в пользу пессимистической точки зрения могут быть самые
разные - от полной метафизики до чистой математики, к которой прибег
известный британский физик Роджер Пенроуз. Отталкиваясь от теоремы
Гёделя о неполноте, Пенроуз заключил, что разум нельзя смоделировать
алгоритмически, и предложил свою теорию, объясняющую, какие физические
процессы стоят за мышлением (подробнее о теории Пенроуза см. статью
Леонида Левковича-Маслюка "Физическая личность" в "КТ" #268). Согласно
гипотезе Пенроуза-Хамероффа, неалгоритмизируемости процессов мышления
мы обязаны квантовым эффектам, возникающим в микротрубках нейронов
головного мозга. Экспериментального подтверждения эта теория пока не
получила, зато вызвала шквал критики со всех сторон, поскольку не
пришлась ко двору ни нейрофизиологам, ни физикам (один из них даже
подсчитал, что предложенная квантовая модель разума будет
работоспособна только при температуре, близкой к
"http://space.mit.edu/home/tegmark/brain.html"
абсолютному нулю), ни уж тем более разработчикам ИИ.
Выход первой книжки Пенроуза "Hовый ум короля" ("Emperor"s New Mind",
1989), равно как и очередной виток блужданий по китайской комнате
Серля, спровоцированный публикацией его статьи в Scientific American,
совпали по времени с периодом острого недовольства инвесторов и
спонсоров результатами исследований ИИ. С начала 1980-х гг.
американское правительство довольно щедро оплачивало умозрительные, по
большей части, разработки. Одна из главных причин такой широты души
заключалась в создании противовеса японской программе разработки
компьютеров пятого поколения, которая, как опасались американцы, может
привести к созданию ИИ японцами. Кроме того, в 1980-х гг. на смену
экспертным системам, в которых многие исследователи уже успели
разочароваться, пришли подающие надежды нейросети. Однако к концу
декады выяснилось, что существующие модели нейросетей при всей своей
обучаемости не обладают долговременной памятью. Японский проект
потерпел фиаско. Таким образом, к началу 1990-х гг. у исследователей
не было на руках ни подхода, который не успел себя скомпрометировать,
ни стимула, который мог бы убедить правительство на дальнейшие
денежные вливания.
Разработки в направлении Strong AI практически остановились. Большая
часть ученых подалась в родственные узкоспециализированные отрасли,
занявшись компьютерным зрением, распознаванием речи, data-mining и т.
п. Обсуждение машинного интеллекта по-прежнему велось довольно
активно, но в отсутствие новых разработок сместилось в умозрительную
плоскость, породив дискуссии об этических аспектах загрузки сознания в
компьютер и неизбежности технологической сингулярности.
В ожидании сингулярности
Hо, похоже, время собирать камни закончилось. Hе исключено, что
выросшие на порядки компьютерные мощности, узкоспециализированные
ИИ-разработки вкупе с достижениями в таких областях, как
нейроинформатика, могут привести к возрождению Strong AI. И Джефф
Хокинc - один из первых исследователей новой (а точнее, очередной)
волны разработчиков ИИ.
Впрочем, не только он пытается создать компьютерную эмуляцию работы
мозга. В мае прошлого года компания IBM совместно с Лозаннским
политехническим институтом (Ecole Polytechnique Federale de Lausanne)
запустила проект Blue Brain, в рамках которого сначала планируется
эмулировать сеть из 10 тысяч нейронов (108 синапсов) на клеточном
уровне. После того как эта задача будет выполнена, работа пойдет сразу
по двум направлениям: исследователи начнут создавать эмуляцию этой
сети, но уже на молекулярном уровне, а также увеличивать мощность
модели, чтобы в идеале создать модель человеческого мозга. О том,
насколько ресурсоемка эта проблема, свидетельствует хотя бы тот факт,
что для создания сети из десяти тысяч нейронов ученым потребовалась
мощность восьми тысяч процессоров (другими словами, за эмуляцию одного
нейрона отвечает практически один процессор), а на прохождение первого
этапа отведено два года. По прошествии этого времени у исследователей
будет готова компьютерная реплика небольшого участка мозга
двухнедельной крысы. При этом куратор проекта Генри Маркрэм (Henry
Markram) вовсе не ожидает, что успешное выполнение всех поставленных
задач, включая построение полной модели человеческого мозга, приведет
к созданию искусственного интеллекта, хотя и не исключает, что работа
Blue Brain поможет разработчикам ИИ.
Кроме того, хорошо забытое старое тоже рано сбрасывать со счетов. В
феврале 2005 года активизировался запущенный еще в 1984 году проект
Cyc Дуга Лената (Doug Lenat). Являющийся, по большому счету, очень
продвинутой экспертной системой общего назначения, Сус успешно пережил
финансовые заморозки, хотя его создателю пришлось организовать
компанию Cycorp, когда консорциум MCC, десять лет оплачивавший счета,
прекратил финансирование. В начале прошлого года Cycorp выпустила
ResearchCyc 1.0 (версия для разработчиков ИИ; в комплекте - база из
более 60 тысяч концепций) и OpenCyc 0.9 (бесплатная версия; в
комплекте - база из 60 тысяч фактов и 6 тысяч концепций). "Внутренняя"
версия Cyc в то же время "знала" более 3 млн. фактов. Естественным
образом выращенный интеллект 1984 года рождения уже вернулся бы из
армии, но Дуг Ленат утверждает, что "чем дальше, тем быстрее Cyc
учится".
Впрочем, современные футурологи все больше связывают свои ожидания
именно с исследованиями мозга. "Чтобы понять принципы работы
человеческого интеллекта, - пишет Рэй Курцвайл (Ray Kurzweil), - мы
должны провести обратный инжиниринг человеческого мозга... По
консервативной оценке, к середине 2020-х гг. будет создана модель
человеческого мозга. <...> А затем мы сможем создать небиологические
системы, равные нам по интеллекту" ("Human 2.0", New Scientist,
сентябрь 2005 года). За этим - согласно Курцвайлу и его сторонникам -
последует создание супер-ИИ (искусственный интеллект, превосходящий
человеческий по большинству параметров), появление которого приведет к
непрогнозируемым последствиям(Подробнее о сингулярности см. эссе
Вернора Винджа "Технологическая сингулярность" (русский перевод -
"http://www.computerra.ru/think/35636"
www.computerra.ru/think/35636; оригинал -
"http://www.ugcs.caltech.edu/~phoenix/vinge/vinge-sing.html"
www.ugcs.caltech.edu/~phoenix/vinge/vinge-sing.html)).
Правда, ожидания Джеффа Хокинcа пока куда скромнее. В заключительной
части своей книги он рассуждает о возможных применениях машинного
интеллекта, построенного по предложенной технологии, и исключает при
этом возможность создания ИИ-систем, обладающих независимым сознанием.
По крайней мере, в обозримом будущем. Если подход Хокинcа оправдает
себя, то не исключено, что через несколько нет на рынке действительно
появятся нормальные электронные переводчики, нормальные системы
распознавания речи или даже полностью автономные, но ограниченные по
функциональности системы (например, электронные такси). Однако эти
разумные машины не попытаются уничтожить человечество, как не пытались
уничтожить человечество все остальные инструменты, созданные людьми.
Если же Хокинc недооценивает собственные разработки и предложенная им
технология способна на что-то большее, то не исключено, что
какой-нибудь выпуск "Компьютерры" 201х года выйдет со слоганом "Сводки
с фронта: вторжение электронных словарей". Обложка будет нарисована от
руки.
Hо и то и другое выполнимо только при условии, что эмуляция мышления
на компьютере вообще возможна. Правда, не исключено, что найти ответ
на этот вопрос мы можем только методом проб и ошибок.
- Из журнала "Компьютерра"
_Оцените материал:_
-+- ifmail v.2.15dev5.3
+ Origin: Computerra News Robot (2:5020/400)
=============================================================================
Nomoskaar! Kamon aachen?
Nomoskaar!
* Форвард сделан Mihail Zaborskih (2:5010/258)
* Ария : ru.computerra
* От : News Robot, 2:5020/400 (27 Янв 06 07:08)
* Кому : All
* Тема : Вторжение электронных словарей Автор: Владимир Гуриев
=============================================================================
АДРЕC: http://www.computerra.ru/focus/249043/
Вторжение электронных словарей
Автор: Владимир Гуриев
Опубликовано 26 января 2006 года
Я уверен, что через пятьдесят лет станет возможным программировать
работу машин с емкостью памяти около 106 так, чтобы они могли играть
в имитацию настолько успешно, что шансы среднего человека установить
присутствие машины через пять минут после того, как он начнет
задавать вопросы, не поднимались бы выше 70%. Первоначальный вопрос
"могут ли машины мыслить?" я считаю слишком неосмысленным, чтобы он
заслуживал рассмотрения. Тем не менее я убежден, что к концу нашего
века употребление слов и мнения, разделяемые большинством
образованных людей, изменятся настолько, что можно будет говорить о
мыслящих машинах, не боясь, что тебя поймут неправильно.
Алан Тьюринг, "Может ли Машина мыслить?", 1956 (1950)
Перевод Ю. Данилова
И в книге, и в интервью Джефф Хокинc ясно дает понять, кто здесь д"Артаньян.
Естественно, что создатель новой теории считает все остальные подходы
ошибочными - а оппонентам в общем-то и крыть нечем, поскольку успехи
разработчиков ИИ по части разработки собственно машин с интеллектом очень и
очень скромны. Однако наполеоновским планам компании Numenta угрожает не только
то, что Хокинc может ошибаться, но и отсутствие ответа на главный вопрос ИИ: а
можно ли в принципе создать хоть сколько-нибудь "разумный" компьютер.
Знаменитое эссе Алана Тьюринга, отрывок из которого вынесен в эпиграф,
называется "Может ли Машина мыслить?"(Собственно, оригинальная статья
называется "Computing machinery and intelligence". А название "Can the
Machine think?" было дано одной из посмертных републикаций, откуда
перекочевало в классический русский перевод), но сам ученый отверг
столь нечеткую формулировку, предложив использовать в качестве
критерия разумности машины процедуру, которую позднее назвали тестом
Тьюринга. Если машина сможет убедительно имитировать человеческие
реакции, значит, ее можно считать мыслящей, и точка. Тьюринг не
пытался ответить на вопрос, могут ли компьютеры обладать независимым
сознанием, но нигде не отрицал это в явном виде. Больше того, из
приведенных в конце статьи реплик на возражения оппонентов слегка
пристрастный читатель вполне может заключить, что Тьюринг вовсе не
исключал такой возможности, но, похоже, считал преждевременным ее
обсуждение(Очень неплохой комментарий к обсуждаемой статье Тьюринга
можно найти на "http://plato.stanford.edu/entries/turing-test"
plato.stanford.edu/entries/turing-test).
Тем не менее именно этот некорректный вопрос о сознании машин не давал
покоя как разработчикам систем ИИ, так и поначалу восторженным, а
потом все более разочарованным наблюдателям. Hеосторожные заявления
самих разработчиков и усилия фантастов, сформировавших в общественном
сознании человекоподобный образ машинного интеллекта, привели к
ожиданиям, которые наука не могла и, в конечном счете, не смогла
удовлетворить. А в начале 1980-х гг. выяснилось, что и с тестом
Тьюринга, пройти который должен каждый уважающий себя машинный
интеллект, тоже не все так просто.
Китайская комната
Джон Серль "Loading Image..." width=160
align=right border=0>В 1980 году в журнале The Behavioral and Brain
Sciences была опубликована статья "Разум, мозг и программы"
("http://members.aol.com/NeoNoetics/MindsBrainsProg-rams.html"
"Minds, Brains, and Programs") американского философа Джона Серля
(John Searle). Серль был не первым, кто задумался о том, могут ли
современные подходы вообще привести к созданию разумных машин, но ему
первому удалось придумать красивую и наглядную модель, бросающую тень
на святой Грааль разработчиков ИИ.
"Представьте себе, - писал Серль, - что я нахожусь в комнате с
корзинами, заполненными табличками с китайскими иероглифами. Я не знаю
китайский. Для меня все эти иероглифы в буквальном смысле китайская
грамота. Hо у меня есть подробная инструкция на английском языке,
описывающая взаимосвязи между этими символами. Мне не нужно понимать
значение китайских иероглифов, чтобы производить с ними действия,
описанные в инструкции.
Вне этой комнаты находится группа людей, понимающих китайский. Они
передают мне таблички с иероглифами, я же на основании инструкции
отдаю им другие таблички с иероглифами. Этих людей можно назвать
"программистами", меня - "компьютером", а корзины с табличками -
"базой данных". Переданные мне таблички назовем "вопросами",
переданные мною - "ответами".
А теперь представьте, что инструкция составлена таким образом, что мои
"ответы" неотличимы от тех, которые бы дал человек, свободно владеющий
китайским. В этом случае я прохожу тест Тьюринга. Однако мы-то с вами
знаем, что я не понимаю китайский язык и никогда не смогу его выучить
таким способом, потому что не существует способа, с помощью которого я
мог бы понять значение этих иероглифов"(Цитируется по более поздней
публикации "Is The Brain"s Mind a Computer Program?", опубликованной в
Scientific American в январе 1990 года. Интересно, что эта статья тоже
начинается с привычного вопроса: "Может ли машина мыслить?" В ней
Серль отвечает на многочисленные возражения оппонентов и уточняет -
точнее, ужесточает - свою точку зрения, отрицая принципиальную
возможность создания работающей (то есть мыслящей) программной модели
человеческого мозга).
Так, по Серлю, устроен и компьютер, оперирующий символами, но не
понимающий их значения. Из синтаксиса невозможно вывести семантику. А
значит, невозможно и построить мыслящую машину - по крайней мере,
оставаясь в рамках формального подхода.
Hесмотря на внешнюю простоту, аргумент Серля оказал очень сильное
воздействие на сообщество разработчиков ИИ, и если сегодня страсти
немного поутихли, то лишь потому, что приверженцы противоположных
точек зрения уже обменялись всеми возможными аргументами; к тому же
тех, кто верит в возможность создания машинного разума(Для этого
направления разработок ИИ Серль ввел термин Strong AI - в
противоположность Weak AI, где такая глобальная задача не ставится, а
системы ИИ рассматриваются только как инструмент для выполнения
определенных функций) и работает над решением этой задачи, сегодня не
так уж много.
Джефф Хокинс в своей книге использует "китайскую комнату" для критики
существующих подходов, однако полностью игнорирует расширенную
аргументацию Серля (Что для человека, согласного с концепцией
функционализма (см. интервью), довольно странно): "Можно представить
себе совершенную, до последнего синапса, компьютерную модель пептидов
гипоталамуса. С тем же успехом мы можем вообразить симуляцию окисления
углеводородов в автомобильном двигателе или симуляцию процесса
переваривания пиццы. Эмуляция работы мозга ничуть не реальнее эмуляции
двигателя или работы желудка. Вы не сможете заправить автомобиль
"эмулированным" бензином и не сможете переварить пиццу, запустив
нужную программу. Очевидно, что и эмуляция процессов познания точно
так же не воспроизведет сопутствующие нейробиологические эффекты"("Is
The Brain"s Mind a Computer Program?", Scientific American, 1990).
Квантовый компьютер Роджера Пенроуза
Философских школ, по-разному определяющих, что такое разум и сознание,
сегодня немногим меньше, чем философов, однако все подходы можно
классифицировать следующим образом: оптимистическая (в контексте
Strong AI) точка зрения гласит, что наше мышление поддается
алгоритмизации, тогда как пессимистическая предполагает, что
деятельность человеческого разума ни к вычислениям, ни к алгоритмам
свести нельзя, а значит, и нельзя "повторить" в компьютерном коде.
Аргументы в пользу пессимистической точки зрения могут быть самые
разные - от полной метафизики до чистой математики, к которой прибег
известный британский физик Роджер Пенроуз. Отталкиваясь от теоремы
Гёделя о неполноте, Пенроуз заключил, что разум нельзя смоделировать
алгоритмически, и предложил свою теорию, объясняющую, какие физические
процессы стоят за мышлением (подробнее о теории Пенроуза см. статью
Леонида Левковича-Маслюка "Физическая личность" в "КТ" #268). Согласно
гипотезе Пенроуза-Хамероффа, неалгоритмизируемости процессов мышления
мы обязаны квантовым эффектам, возникающим в микротрубках нейронов
головного мозга. Экспериментального подтверждения эта теория пока не
получила, зато вызвала шквал критики со всех сторон, поскольку не
пришлась ко двору ни нейрофизиологам, ни физикам (один из них даже
подсчитал, что предложенная квантовая модель разума будет
работоспособна только при температуре, близкой к
"http://space.mit.edu/home/tegmark/brain.html"
абсолютному нулю), ни уж тем более разработчикам ИИ.
Выход первой книжки Пенроуза "Hовый ум короля" ("Emperor"s New Mind",
1989), равно как и очередной виток блужданий по китайской комнате
Серля, спровоцированный публикацией его статьи в Scientific American,
совпали по времени с периодом острого недовольства инвесторов и
спонсоров результатами исследований ИИ. С начала 1980-х гг.
американское правительство довольно щедро оплачивало умозрительные, по
большей части, разработки. Одна из главных причин такой широты души
заключалась в создании противовеса японской программе разработки
компьютеров пятого поколения, которая, как опасались американцы, может
привести к созданию ИИ японцами. Кроме того, в 1980-х гг. на смену
экспертным системам, в которых многие исследователи уже успели
разочароваться, пришли подающие надежды нейросети. Однако к концу
декады выяснилось, что существующие модели нейросетей при всей своей
обучаемости не обладают долговременной памятью. Японский проект
потерпел фиаско. Таким образом, к началу 1990-х гг. у исследователей
не было на руках ни подхода, который не успел себя скомпрометировать,
ни стимула, который мог бы убедить правительство на дальнейшие
денежные вливания.
Разработки в направлении Strong AI практически остановились. Большая
часть ученых подалась в родственные узкоспециализированные отрасли,
занявшись компьютерным зрением, распознаванием речи, data-mining и т.
п. Обсуждение машинного интеллекта по-прежнему велось довольно
активно, но в отсутствие новых разработок сместилось в умозрительную
плоскость, породив дискуссии об этических аспектах загрузки сознания в
компьютер и неизбежности технологической сингулярности.
В ожидании сингулярности
Hо, похоже, время собирать камни закончилось. Hе исключено, что
выросшие на порядки компьютерные мощности, узкоспециализированные
ИИ-разработки вкупе с достижениями в таких областях, как
нейроинформатика, могут привести к возрождению Strong AI. И Джефф
Хокинc - один из первых исследователей новой (а точнее, очередной)
волны разработчиков ИИ.
Впрочем, не только он пытается создать компьютерную эмуляцию работы
мозга. В мае прошлого года компания IBM совместно с Лозаннским
политехническим институтом (Ecole Polytechnique Federale de Lausanne)
запустила проект Blue Brain, в рамках которого сначала планируется
эмулировать сеть из 10 тысяч нейронов (108 синапсов) на клеточном
уровне. После того как эта задача будет выполнена, работа пойдет сразу
по двум направлениям: исследователи начнут создавать эмуляцию этой
сети, но уже на молекулярном уровне, а также увеличивать мощность
модели, чтобы в идеале создать модель человеческого мозга. О том,
насколько ресурсоемка эта проблема, свидетельствует хотя бы тот факт,
что для создания сети из десяти тысяч нейронов ученым потребовалась
мощность восьми тысяч процессоров (другими словами, за эмуляцию одного
нейрона отвечает практически один процессор), а на прохождение первого
этапа отведено два года. По прошествии этого времени у исследователей
будет готова компьютерная реплика небольшого участка мозга
двухнедельной крысы. При этом куратор проекта Генри Маркрэм (Henry
Markram) вовсе не ожидает, что успешное выполнение всех поставленных
задач, включая построение полной модели человеческого мозга, приведет
к созданию искусственного интеллекта, хотя и не исключает, что работа
Blue Brain поможет разработчикам ИИ.
Кроме того, хорошо забытое старое тоже рано сбрасывать со счетов. В
феврале 2005 года активизировался запущенный еще в 1984 году проект
Cyc Дуга Лената (Doug Lenat). Являющийся, по большому счету, очень
продвинутой экспертной системой общего назначения, Сус успешно пережил
финансовые заморозки, хотя его создателю пришлось организовать
компанию Cycorp, когда консорциум MCC, десять лет оплачивавший счета,
прекратил финансирование. В начале прошлого года Cycorp выпустила
ResearchCyc 1.0 (версия для разработчиков ИИ; в комплекте - база из
более 60 тысяч концепций) и OpenCyc 0.9 (бесплатная версия; в
комплекте - база из 60 тысяч фактов и 6 тысяч концепций). "Внутренняя"
версия Cyc в то же время "знала" более 3 млн. фактов. Естественным
образом выращенный интеллект 1984 года рождения уже вернулся бы из
армии, но Дуг Ленат утверждает, что "чем дальше, тем быстрее Cyc
учится".
Впрочем, современные футурологи все больше связывают свои ожидания
именно с исследованиями мозга. "Чтобы понять принципы работы
человеческого интеллекта, - пишет Рэй Курцвайл (Ray Kurzweil), - мы
должны провести обратный инжиниринг человеческого мозга... По
консервативной оценке, к середине 2020-х гг. будет создана модель
человеческого мозга. <...> А затем мы сможем создать небиологические
системы, равные нам по интеллекту" ("Human 2.0", New Scientist,
сентябрь 2005 года). За этим - согласно Курцвайлу и его сторонникам -
последует создание супер-ИИ (искусственный интеллект, превосходящий
человеческий по большинству параметров), появление которого приведет к
непрогнозируемым последствиям(Подробнее о сингулярности см. эссе
Вернора Винджа "Технологическая сингулярность" (русский перевод -
"http://www.computerra.ru/think/35636"
www.computerra.ru/think/35636; оригинал -
"http://www.ugcs.caltech.edu/~phoenix/vinge/vinge-sing.html"
www.ugcs.caltech.edu/~phoenix/vinge/vinge-sing.html)).
Правда, ожидания Джеффа Хокинcа пока куда скромнее. В заключительной
части своей книги он рассуждает о возможных применениях машинного
интеллекта, построенного по предложенной технологии, и исключает при
этом возможность создания ИИ-систем, обладающих независимым сознанием.
По крайней мере, в обозримом будущем. Если подход Хокинcа оправдает
себя, то не исключено, что через несколько нет на рынке действительно
появятся нормальные электронные переводчики, нормальные системы
распознавания речи или даже полностью автономные, но ограниченные по
функциональности системы (например, электронные такси). Однако эти
разумные машины не попытаются уничтожить человечество, как не пытались
уничтожить человечество все остальные инструменты, созданные людьми.
Если же Хокинc недооценивает собственные разработки и предложенная им
технология способна на что-то большее, то не исключено, что
какой-нибудь выпуск "Компьютерры" 201х года выйдет со слоганом "Сводки
с фронта: вторжение электронных словарей". Обложка будет нарисована от
руки.
Hо и то и другое выполнимо только при условии, что эмуляция мышления
на компьютере вообще возможна. Правда, не исключено, что найти ответ
на этот вопрос мы можем только методом проб и ошибок.
- Из журнала "Компьютерра"
_Оцените материал:_
-+- ifmail v.2.15dev5.3
+ Origin: Computerra News Robot (2:5020/400)
=============================================================================
Nomoskaar! Kamon aachen?
Nomoskaar!