Психопрактика

Психология комплексов

Блог

Блог "Суть жизни человека, или Психология комплексов"

Гендер

Пол человека или пол-человека?"

Философия

Виды свободы

Архив статей

Когнитивная наука

Искусственный интеллект

Психофизиология

Психофизиологическая экспертиза

Арт-терапия

М.Бахтин: теория карнавала

Мужские комплексы

Мужские комплексы

Категории раздела

Библиотека статей по психологии, философии, футурологии и антиутопии [391]

Фант-ЮСАС: Статьи по психологии и философии экзистенциализма

Главная » Статьи » Библиотека статей по психологии, философии, футурологии и антиутопии

Сколько осталось до суперинтеллекта? Ник Бостром



 Определение термина "суперинтеллект"

Под "суперинтеллектом" мы понимаем интеллект, превосходящий лучших представителей человеческого разума практически в любой области, включая научное творчество, здравый смысл и социальные навыки. Данное определение оставляет открытым вопрос, каким образом суперинтеллект будет осуществлен: это может быть цифровой компьютер, совокупность взаимосвязанных компьютеров, культивированная мозговая ткань, или нечто другое.

 Закон Мура и сегодняшние суперкомпьютеры

Закон Мура утверждает, что скорость процессоров удваивается каждые восемнадцать месяцев [A]. Раньше удвоение скорости происходило каждые два года, но около пятнадцати лет назад ситуация изменилась. Последние данные показывают, что период удвоения уже составляет 12 месяцев. При таком темпе вычислительная мощность возрастет за десять лет тысячекратно.

Закон Мура - это то, на что опираются производители микросхем, когда решают, какие чипы разрабатывать, чтобы сохранить конкурентоспособность. Если оценить вычислительные способности мозга человека и экстраполировать закон Мура (можно ли это делать, будет обсуждаться ниже), мы сможем вычислить, сколько потребуется времени, чтобы компьютеры по аппаратной мощности достигли человеческого интеллекта.

Сегодня (на декабрь 1997 года) самый быстрый суперкомпьютер выполняет 1,5 триллиона операций в секунду (1,5 Tops). Существует проект, имеющий целью получить производительность в 10 Tops с помощью Интернета. Сто тысяч добровольцев установят на свои компьютеры хранитель экрана, который позволит центральному компьютеру делегировать всем остальным некоторые вычислительные задания. Этот (т.н. метакомпьютерный) подход наилучшим образом работает для задач, легко поддающихся параллелизации, как, например, исчерпывающий поиск для взлома кода. В будущем, с каналами большей пропускной способности (например, оптоволоконными), широкомасштабный метакомпьютинг будет работать еще лучше, чем сегодня. Моделирование мозга по своей природе относительно легко поддается параллелизации, поэтому огромная распределенная в Интернете имитация мозга могла бы стать в будущем реальной альтернативой. Однако для текущих целей мы пренебрежем этой возможностью, а будем считать машину, выполняющую 1,5 Tops, лучшим, чем мы сегодня располагаем. Потенциал метакомпьютинга может быть введен в наш прогноз в качестве дополнительного основания думать, что доступная вычислительная мощность будет продолжать расти как предсказывает закон Мура.

Даже без какого-либо улучшения технологии мы можем получить несколько лучший результат, к примеру, удвоив число чипов в одном корпусе. Правительством США был заказан компьютер мощностью 3 Tops для разработки и тестирования стратегического ядерного оружия. Однако, учитывая, что стоимость этой машины составляет 94 млн. долларов, очевидно, что даже крупное дополнительное финансирование позволило бы в коротком промежутке времени добиться лишь весьма скромного приращения вычислительных мощностей.

Насколько вески основания полагать, что закон Мура будет продолжать выполняться в будущем? Очевидно, рано или поздно он должен перестать действовать. Существуют физические ограничения на плотность, с которой материя может хранить и обрабатывать информацию. Ограничение Бекенштейна дает верхний предел количества информации, которая может содержаться в пределах заданного объема при использовании заданного количества энергии. Поскольку колонизация космоса дала бы максимум полиномиальный (~t^3) темп расширения (учитывая, что максимальная скорость ограничена скоростью света), экспоненциальное увеличение доступной вычислительной мощности не может продолжаться бесконечно, если только не будут открыты новые законы физики.

На мой взгляд закон Мура потеряет доверие к себе задолго до того, как мы достигнем абсолютных физических пределов. Вероятно, он не имеет большой предсказательной силы далее, чем в пределах следующих пятнадцати лет. Нельзя сказать, что скорость процессоров не будет продолжать удваиваться каждые двенадцать или восемнадцать месяцев после 2012 года; мы лишь не можем использовать закон Мура, чтобы это утверждать. Если же мы хотим делать предсказания далее этой даты, мы будем должны посмотреть непосредственно, что возможно физически. Также, предположительно, это будет означать, что нам придется иметь дело с интервалом большей неопределенности на оси времени. Изучение физических возможностей в лучшем случае говорит нам, что случится, если люди захотят, чтобы это случилось; но даже если предположить, что потребность будет, это не даст нам информацию, когда это случится.

Около 2007 года мы достигнем физического предела сегодняшней кремниевой технологии. Однако закон Мура до сих пор уже пережил несколько смен технологических поколений, от реле к вакуумным лампам, далее к транзисторам, интегральным схемам, и, наконец, к сверхбольшим интегральным схемам (СБИС). Не существует причин полагать, что сегодняшний дизайн СБИС, двухмерная кремниевая вафля, станет завершающим словом в технологии чипов. Уже предложены и разрабатываются несколько способов преодолеть ограничения сегодняшней технологии.

В ближайшем будущем, к примеру, может оказаться возможным использовать фазовый сдвиг шаблона, чтобы довести минимальное расстояние между двумя рядами элементов на микрочипе вплоть до 0,13 микрометра, даже при сохранении видимого диапазона излучения при литографии. За пределами же видимого диапазона мы могли бы использовать рентгеновские лучи или по меньшей мере ультрафиолет на пределе диапазона (т.н. "мягкие рентгеновские лучи") для достижения еще большей точности. Если это не удастся, можно было бы использовать электронный луч, хотя это метод производства будет медленным, а, значит, дорогим. Компромисс мог бы заключаться в нанесении электронным лучом части входов и выходов, где скорость имеет решающее значение, и использовании видимого спектра или мягкого рентгена для записи остальных элементов на чип.

Также мы можем увеличить мощность чипа, используя больше слоев, - техника, которую лишь недавно начали осваивать, а также делая более толстые вафли (до 300 мм - не должно быть проблемой). Можно изготавливать существенно большие по размерам чипы при наличии некоторого допуска на ошибки. Допуск на ошибки мог бы быть получен при использовании эволюционирующих кристаллов (DeGaris).

Также возможно отодвинуть физические ограничения на размеры транзисторов, если перейти на новые материалы, такие как Gallium Arsenide. Сейчас разрабатываются квантовые транзисторы, обещающие новое слово в технологии чипов. Им будет присуща высокая скорость переключения или низкое потребление энергии.

Благодаря высокопараллельной природе вычислений, подобных производимым мозгом, также должно быть возможным использование высокопараллельной архитектуры. В этом случае будет достаточным произвести значительное количество средних по скорости процессоров, и далее связать их в локальные сети соединениями с высокой пропускной способностью. Также мы уже упомянули возможность метакомпьютинга. [B]

Все это - то, что разрабатывается сегодня. Эти технологии накачиваются крупным финансированием [C]. И, хотя затруднения могут показаться весьма серьезными человеку, работающему в данной области и постоянно сосредоточенному на каждодневных проблемах, справедливо будет сказать, что среди экспертов широко распространен оптимизм относительно перспектив, что в обозримом будущем мощность компьютеров будет продолжать расти.

 Примечания 

[A] На самом деле не очевидно, о чем именно говорит закон Мура. Закон получил свое имя по имени Гордона Мура, одного из основателей корпорации Интел, который в 1965 году заметил, что каждый год плотность схемы микрочипов удваивается. В 1975 году он сделал предсказание, что с этого момента и далее, период удвоения будет составлять два года. Реальное время удвоения несколько колебалось. Вначале оно составляло один год, потом два года, а сейчас снова вернулось примерно к одному году. Поэтому, когда ссылаются на закон Мура, одна двусмысленность в том, что непонятно, составляет ли константа времени год, два года, или предполагается, что она должна быть такой, как следует из самых последних данных. Вторая двусмысленность, что изначальное утверждение было сформулировано скорее о количестве транзисторов, помещающихся на единице площади, чем о скорости чипа. До сих пор это различие не имело большого значения, поскольку плотность схемы и скорость сильно коррелировали и шли рука об руку. Однако, если мы говорим о будущем, возможно, мы будем получать увеличение вычислительной мощности иными средствами, нежели уменьшая размер транзисторов. Поэтому имеет смысл переформулировать закон Мура в утверждение, говорящее скорее об экспоненциальном росте вычислительной мощности (на доллар с поправкой на инфляцию), чем о плотности упаковки схемы. Лучше обозначить "законом Мура" эту слегка модифицированную гипотезу, чем изобретать новый термин по сути для той же идеи.

[B] В длительной перспективе, мы должны также принимать в рассмотрение нанотехнологию и квантовые компьютеры.

[C] Сегодня требуется около 400 инженеров, чтобы произвести новый чип. Современная фабрика по производству микросхем может стоить более 2 млрд. долларов. Каждый год на разработку и конструирование микрочипов тратится от 20 до 30 миллиардов. С годами эти цифры росли, поэтому следует отметить, что один из факторов, способный замедлить темп развития - снижение финансирования, которое рано или поздно произойдет.

Требования к аппаратным средствам

Человеческий мозг содержит примерно 100 миллиардов нейронов. Каждый нейрон имеет около 5 тысяч синапсов, а сигналы проходят через эти синапсы с частотой около 100 Гц. Каждый сигнал, допустим, содержит 5 бит. Это соответствует 10^17 ops.[D]

Реальное значение не может быть намного выше этого, хотя может быть и значительно ниже. Похоже, что мозг содержит большую избыточность; часто требуется синхронное возбуждение больших групп нейронов, чтобы сигнал не утонул в фоновом шуме. Альтернативный способ вычисления общей производительности - рассмотреть некоторую часть коры головного мозга, выполняющую функции, которые мы умеем воспроизводить на цифровых компьютерах. Мы вычисляем среднюю производительность одного нейрона в области коры мозга, эквивалентную вычислениям с помощью компьютера, и умножаем это значение на количество нейронов в мозгу. Ганс Моравек произвел эти вычисления, используя данные о сетчатке глаза человека (Moravec 1997), и сравнил их с известными требованиями к компьютерным ресурсам в задаче распознавания образов в машинном зрении. Он получил значение 10^14 для человеческого мозга в целом. Это на три порядка меньше, чем верхняя граница, вычисленная в предположении, что избыточности нет.

Трудно найти основания, заставляющие предположить, что избыточность в сетчатке больше, чем в коре. Если и есть отличие в избыточности, то скорее наоборот, в сетчатке она будет меньше: распознавание образов - задача более низкого уровня по сравнению с высшими когнитивными процессами, а значит, по-видимому, более оптимизирована (эволюцией и индивидуальным обучением).

Если необходимо 100 Tops, чтобы имитировать человеческий мозг, то требуемая вычислительная мощность будет достигнута где-то между 2004 и 2008 годом в зависимости от того, взять время удвоения 12 или 18 месяцев. Это будут лучшие экспериментальные суперкомпьютеры в мире, не обязательно компьютеры, доступные для разработчиков ИИ. В зависимости от финансирования, может пройти еще до десятка лет, прежде чем обычные исследователи, экспериментирующие с ИИ, получат доступ к машинам с такой производительностью.

Это если мы берем в качестве модели имитацию сетчатки. В настоящее время, однако, известно недостаточно о коре больших полушарий, чтобы воспроизвести их таким оптимизированным образом. Но к 2004-2008 гг. эти знания могут появиться (как мы увидим в следующем параграфе). Что требуется, чтобы получить ИИ человеческого уровня при этой минимальной мощности оборудования - это умение моделировать 1000-нейронные совокупности высокоэффективным способом.

Крайний вариант, на который мы опирались в оценке верхней границы - моделирование каждого нейрона отдельно. Количество тактов, которое нейрологи могут потратить на моделирование процессов внутри единственного нейрона - не ограничено. Но это так, поскольку их цель - детальное моделирование химических и электродинамических процессов в нервной клетке, а не просто выполнение минимальных вычислений, которые требуются для повторения свойств их функции срабатывания, необходимых в общем функционировании нейронной сети. Неизвестно, насколько большая часть этих деталей избыточна и несущественна, и как много из них должно быть сохранено, чтобы модель воспроизводила свойства сети как целого. Однако, по крайней мере на взгляд автора, много шансов в пользу того, что узлы сети могут быть сильно упрощены и заменены простыми стандартизированными элементами. Представляется совершенно реальным получить разумную нейронную сеть с самыми разнообразными выходными функциями нейронов и временем задержки.

Однако выглядит вполне реалистично, что если мы будем уметь воспроизводить идеализированный нейрон и знать достаточно о синаптической структуре мозга, мы сможем составить искусственные нейроны вместе так, чтобы это функционально отражало происходящее в мозгу. Далее мы также сможем заменить целые 1000-нейронные модули на что-то, для моделирования чего требуется меньше вычислительной мощности, чем в случае моделирования каждого нейрона в модуле по отдельности. Мы вполне могли бы дойти вплоть до 1000 инструкций на нейрон в секунду, как это вытекает из оценки, сделанной Моравеком (10^14 ops / 10^11 нейронов = 1000 операций в секунду на нейрон). Но кроме случая, когда мы будем способны построить эти модули раньше, чем мозг целиком, такая оптимизация будет возможна только после того, как уже будет разработан ИИ, эквивалентный человеку.

Если взять верхнюю границу вычислительной мощности, нужной для моделирования человеческого мозга, т.е. предположить, что имеется достаточно ресурсов для имитирования каждого нейрона индивидуально (10^17 ops), закон Мура говорит, что нам придется подождать примерно до 2015 или 2024 года (при периоде удвоения 12 или 18 месяцев соответственно) прежде чем будут в наличии суперкомпьютеры с требуемой производительностью. Но если к тому времени мы будем уметь делать моделирование на уровне индивидуальных нейронов, предположительно, мы также найдем по меньшей мере некоторые способы оптимизации, поэтому вероятно мы могли бы несколько скорректировать эти верхние границы вниз.

Пока я говорил только о скорости процессора, но чтобы иметь производительность человеческого мозга, компьютеры также должны иметь большой объем памяти. На протяжении всей истории компьютеров, отношение между памятью и скоростью оставалось более или менее постоянным: 1 байт/ops. Так как сигнал передается вдоль синапса в среднем с частотой около 100 Гц, а его запоминающая способность, вероятно, менее 100 байт (1 байт выглядит более правдоподобной оценкой), похоже, скорость в большей степени, нежели память была бы узким местом в моделировании мозга на нейронном уровне. (Если же предположить, что при моделировании мы достигнем тысячекратного превосходства в скорости над реальным мозгом, как это вытекает из оценки Моравека, тогда требования к скорости могут уменьшиться. Возможно, они могли бы быть на один порядок меньше требований к памяти. Но если путем моделирования групп из 1000 нейронов мы сможем оптимизировать на три порядка требования к скорости, вероятно, также мы сможем сократить по крайней мере на один порядок и требования к памяти. Таким образом трудность создания достаточной памяти может быть значительно меньше, и почти наверняка не значительно больше, чем сложность создания достаточно быстрого процессора. Следовательно, мы можем сфокусировать наше внимание на скорости как на решающем параметре в вопросе аппаратных средств.)

В данной статье не обсуждается возможность, что квантовые явления непредвиденно вторгаются в процесс человеческого познания. Хамерофф и Пенроуз, а также некоторые другие предполагают, что в микротрубках могут существовать когерентные квантовые состояния, и мозг использует эти явления для решения сложных высокоуровневых познавательных задач. Мнение автора - это малоправдоподобно. Мы не будем здесь рассматривать аргументы за и против; просто в этой статье будет предполагаться, что квантовые феномены в моделировании мозга высокого уровня функционально несущественны.

В заключение можно сказать, что мощность аппаратных средств для эквивалентного человеку ИИ вероятно будет иметься до конца первой четверти следующего столетия, и даже может быть получена уже в 2004 году. Соответствующая мощность будет доступна ведущим лабораториям по разработке ИИ в течение десяти лет после этого (или раньше, если потенциал ИИ человеческого уровня будет к тому времени оценен лучше финансирующими организациями).

Примечания

[D] Возможны небольшие уточнения к этой оценке. Например, существуют некоторые данные, что некоторый ограниченный объем коммуникации между нервными клетками возможен без синаптической передачи. Мы имеем регуляторные механизмы, состоящие из нейротранзмиторов и их источников, рецепторов и каналов повторного поглощения. Тогда как балансы нейротранзмиторов критически важны для правильного функционирования человеческого мозга, они имеют незначительное информационное содержание по сравнению с синаптической структурой. Возможно, более серьезный момент - что нейроны часто имеют достаточно сложные свойства по интеграции сигналов во времени. (Koch 1997). Будет ли иметь конкретный набор синаптических входов результатом возбуждение некоего нейрона, зависит от момента, когда это происходит. По мнению автора, кроме, возможно, небольшого количества особых приложений, таких как восприятие стерео звучания, временные свойства нейронов могут быть легко согласованы с разрешением модели по времени на уровне 1 мс. В неоптимизированной модели это бы добавило порядок к оценке, данной выше, где мы полагали разрешение по времени 10 мс, соответствующее частоте возбуждения 100 Гц. Однако, другие значения, на которых основывалась эта оценка, похоже, будут скорее завышенными, чем заниженными. Поэтому нам не следует сильно изменять оценку, чтобы сделать поправку на возможные эффекты высокодискретного интегрирования по времени в нейронном дереве дендритов. (Заметьте, что даже если бы нам пришлось скорректировать нашу оценку на порядок вверх, это добавило бы всего три года к предсказанной поздней дате появления аппаратных средств, эквивалентных по мощности человеку. Ранняя дата, которая основывается на оценке Моравека, осталась бы неизменной.)

Программное обеспечение, создаваемое "снизу-вверх"

Кроме аппаратного суперинтеллект требует программного обеспечения. Существует несколько подходов к этой проблеме, различающихся по степени использования принципа "программирование сверху вниз". В одном предельном случае - это системы подобные CYC, которая представляет собой совокупность очень большой подобной энциклопедии базы знаний и машин по выведению следствий. Ее наполняет фактами, правилами "большого пальца", эвристиками и другими человеческими знаниями команда операторов и экспертов в течение более чем десятка лет. Хотя системы подобные CYC могут быть хороши для определенных практических задач, едва ли это подход, способный убедить скептиков ИИ, что суперинтеллект может стать реальностью в обозримом будущем. Нам следует подумать о парадигмах, в которых требуется меньше ввода информации человеком, т.е. в большей степени использующих методы программирования "снизу вверх".

При достаточных аппаратных возможностях и соответствующем способе программирования мы бы могли заставить машины учиться так же, как это делают дети, т.е. взаимодействуя с взрослыми человеческими индивидами и другими объектами в их окружении. Существуют хорошо известные методы, такие как алгоритм обратного распространения погрешности (Backpropagation algorithm), которые могут давать хорошие результаты во многих небольших приложениях, включающих многослойные нейронные сети. К сожалению, этот алгоритм плохо масштабируется. Правило обучения Хебба, напротив, прекрасно масштабируется (оно масштабируется линейно, т.к. каждое обновление веса включает рассмотрение активности лишь двух узлов, вне зависимости от размера сети). Известно, что оно - основной принцип обучения в мозгу. Похоже, однако, что правило Хебба - не единственный принцип обучения, действующий в мозгу. Также возможно необходимо будет принять во внимание, к примеру, обучение "стимулированное вознаграждением" (Morillo 1992) и другие обучающие принципы, которые еще предстоит открыть. Кроме того, неизвестно, каким образом хеббовское обучение в чистом виде позволило бы мозгу хранить структурированные представления в долговременной памяти, хотя несколько механизмов предложено (Bostrom 1996).

Кроме подходящих правил обучения (и достаточно мощных аппаратных средств) создание суперинтеллекта путем имитации функционирования человеческого мозга потребует еще две вещи: наличие адекватной начальной архитектуры и обеспечение богатого потока сенсорных входных сигналов.

Второе указанное условие легко обеспечивается даже существующей технологией. Используя видеокамеры, микрофоны и тактильные сенсоры, возможно обеспечить устойчивый поток информации реального мира в искусственную нейронную сеть. Элемент интерактивности может быть осуществлен путем присоединения к системе манипуляторов и динамиков.

Разработка адекватной начальной структуры сети ставит более серьезную задачу. Чтобы получить правильную архитектуру коры мозга, может оказаться необходимым написать значительный объем кода вручную. В биологических организмах мозг не появляется при рождении как гомогенная чистая доска; он имеет начальную структуру, запрограммированную генетически. На сегодняшний день нейрология не способна указать точно, какова эта структура, и какую часть от нее понадобится сохранить в модели, чтобы она в конечном счете соответствовала познавательным способностям взрослого человека. Одна из неожиданных трудностей на пути создания ИИ человеческого уровня по принципу нейронных сетей может появиться, если окажется, что человеческий мозг опирается на колоссальное количество генетически установленных связей, и поэтому каждая познавательная функция зависит от уникальной и крайне запутанной врожденной архитектуры, порожденной тысячелетиями эволюционного процесса обучения нашего биологического вида.

Может ли оказаться так? Существует по крайней мере три общих соображения, свидетельствующие об обратном. Здесь нам необходимо познакомиться с очень коротким обзором этих соображений. Для более глубокого рассмотрения вопроса читатель может обратиться к Phillips & Singer (1996).

Во-первых, примем во внимание пластичность коры полушарий, особенно у младенцев. Известно, что повреждения коры, даже значительные, часто могут компенсироваться, если случаются в раннем возрасте. Другие корковые области берут на себя функции, которые в обычном случае развились бы в разрушенном участке. Например, в одном исследовании чувствительность к характеристикам зрительных образов у новорожденных хорьков развивалась в слуховой коре после того как нормальный канал слухового входа в этом участке мозга заменили на визуальные проекции (Sur et al. 1988). Подобным образом было показано, что визуальная кора может брать на себя и функции, обычно выполняемые сенсомоторным участком мозга (Schlaggar & O'Leary 1991). Недавний эксперимент (Cohen et al. 1997) показал, что люди, ослепшие в раннем возрасте, могут использовать визуальную кору мозга для обработки тактильных ощущений при чтении с помощью азбуки Брайля.

Правда, существуют некоторые более примитивные области мозга, чьи функции не могут быть взяты на себя другим участком. Например, люди, у которых удален гиппокамп, теряют способность запоминать новые эпизоды и семантические конструкции. Но кора полушарий имеет тенденцию быть высоко пластичной; это - то место, где осуществляется обработка наиболее высокого уровня, делающая нас интеллектуально выше животных. Было бы интересно исследовать более подробно, до какой степени это остается верным для всей коры полушарий. Существуют ли такие маленькие отделы коры мозга, что если их удалить при рождении, субъект никогда не обретет определенных высших способностей, даже в ограниченной степени?

Второе соображение, возможно, свидетельствующее, что врожденная архитектурная дифференциация играет относительно малую роль в общем функционировании зрелого мозга: насколько известно, архитектура коры полушарий человека, особенно младенцев, удивительно гомогенна для различных участков мозга, и даже гомогенна у различных биологических видов:

Тонкие оболочки и вертикальные связи между оболочками - отличительные черты всех корковых систем; морфологические и физиологические характеристики корковых нейронов эквивалентны у разных видов, равно как и различные виды синаптических взаимодействий между корковыми нейронами. Подобие организации распространяется даже на специфические детали устройства коры мозга. (White 1989, p. 179).

Третье соображение - эволюционный аргумент. Рост коры полушарий, который позволил Homo Sapiens интеллектуально обогнать других животных, занял относительно короткий период времени. Это значит, что эволюционное обучение не могло внедрить очень много информации в эти относительно новые корковые структуры, дающие нам интеллектуальное преимущество. Это дополнительное развитие коры скорее стало результатом изменений в ограниченном числе генов, регулирующих ограниченное число параметров коры.

Эти три соображения подтверждают точку зрения, что количество нейрологической информации, необходимой для реализации подхода "снизу-вверх", довольно ограниченно. (Ни одно из этих соображений не является аргументом против того, что мозг взрослого человека состоит из модулей. Они только показывают, что значительная часть информации, которая появляется в этих модулях, скорее проистекает из самоорганизации и чувственного восприятия, чем из чрезвычайно сложной генетической таблицы поиска.)

Необходимо дальнейшее продвижение в нейрологии, прежде чем мы будем способны построить ИИ человеческого уровня (или хотя бы выше животного уровня) исключительно средствами этого подхода "снизу-вверх". Тогда как нейрология действительно резко продвинулась вперед за последние годы, трудно оценить, сколько времени пройдет, прежде чем будет достаточно известно об устройстве мозга и его алгоритмах обучения, чтобы оказалось возможным реализовать их на компьютерах достаточной вычислительной мощности. Грубое предположение: что-то около пятнадцати лет. Это не предсказание о том, как близко мы находимся к полному пониманию всех важных явлений в мозгу. Эта оценка относится к промежутку, за который, можно было бы ожидать, мы будем знать достаточно о базовых принципах работы мозга, чтобы быть в состоянии воплотить эти вычислительные принципы на компьютере, не обязательно моделируя мозг хоть сколько-нибудь биологически реалистичным образом.

Некоторым может показаться, что эта оценка недооценивает трудности, и возможно это так. Но давайте посмотрим, сколько произошло в последние пятнадцать лет. До 1982 года такая дисциплина как компьютерная нейрология едва ли существовала. А будущий прогресс будет идти не только потому что исследования сегодняшним инструментарием будут приводить к новым значительным находкам, но и потому что станут доступны новые инструменты для экспериментов и новые методы. Широкомасштабная многоэлектродная запись должна стать возможной в ближайшем будущем. Разрабатывается прямой интерфейс между мозгом и чипом. Для нейрологов становятся доступны более мощные аппаратные средства для выполнения моделирования с большим объемом вычислений. Нейрофармакологи разрабатывают препараты с более высокой избирательностью, позволяя исследователям выборочно воздействовать на определенный подтип рецепторов. Существующие методики сканирования улучшаются и разрабатываются новые. Этот список может быть продолжен. Все эти инновации дадут нейрологам новые очень мощные инструменты, которые будут содействовать их исследованиям.

В этом разделе обсуждалась проблема программного обеспечения. Были высказаны аргументы в пользу того, что она может быть решена подходом "снизу-вверх" с использованием существующего оборудования для обеспечения каналов входа и выхода, а также при продолжении изучения человеческого мозга, с целью выяснить, какие обучающие алгоритмы он использует и какова начальная нейронная структура новорожденных младенцев. Учитывая, какими огромными шагами двигается компьютерная нейрология в последнее десятилетие, и какие инструменты для экспериментов находятся в процессе разработки, кажется разумным предположить, что требуемые нейрологические знания могут быть получены в течение десяти или пятнадцати лет, т.е. до 2012 года.

Почему бывшие неудачи с ИИ - не аргумент против его успеха в будущем

В семидесятые и восьмидесятые годы в области ИИ был застой, т.к. преувеличенные ожидания дней зарождения ИИ не стали реальностью, и прогресс почти остановился. Урок, который нужно из этого факта извлечь - не то, что ИИ мертв и машины с суперинтеллектом никогда не будут построены. Он лишь показывает, что ИИ более сложная вещь, чем некоторые из первых пионеров могли подумать, но это ни коим образом не говорит о том, что ИИ навсегда останется неосуществимым.

В ретроспективе мы видим, что на той стадии проект ИИ принципиально не мог достичь успеха. Просто аппаратные средства не были достаточно мощными. Похоже, для выполнения задач человеческого уровня требуется по меньшей мере 100 Tops, и даже может потребоваться 10^17 ops. Компьютеры же семидесятых имели вычислительную мощность, сравнимую с насекомыми. Они и достигали примерно уровня интеллекта насекомых. Сейчас же, напротив, мы можем предвидеть появление аппаратных средств с производительностью человеческого уровня, поэтому причина прошлого неуспеха ИИ перестает действовать.

Существует также объяснение относительного отсутствия заметного прогресса на протяжении этого периода. Как отмечает Ганс Моравек:

[F] На протяжении нескольких десятилетий вычислительная мощность, обнаруживаемая в лучших образцах ИИ и робототехнических системах, оставалась на уровне мощности мозга насекомых - 1 MIPS. В то время как вычислительная мощность из расчета на один доллар стремительно увеличивалась в течение этого периода, доступное количество денег уменьшалось столь же быстро. Первые дни ИИ, в середине 60-х, эта область накачивалась щедрыми оборонными субсидиями по следам Спутника, что давало доступ к суперкомпьютерам того времени стоимостью 10 млн. долларов. В 70-х, после Вьетнамской войны, финансирование сократилось, и были доступны машины стоимостью лишь 1 млн. долларов. К началу 80-х исследование ИИ было вынуждено ограничиваться миникомпьютерами стоимостью 100 тыс. долларов. В конце 80-х доступными машинами стали рабочие станции за 10 тыс. долларов. К 90-м годам большая часть работы выполнялась на персональных компьютерах, стоящих лишь несколько тысяч долларов. С того времени с увеличением производительности компьютера мощность ИИ и "мозгов" роботов возросла. К 1993 персональные компьютеры обеспечивали 10 MIPS, к 1995 - 30 MIPS, и в 1997 - более 100 MIPS. Машины "вдруг" стали читать текст, распознавать речь, а роботы под собственным управлением - передвигаться по пересеченной местности. (Moravec 1997)

Энтеррон - персонаж ИИ в романе Ю.Скуркис и А.Соловьева "Ошибка 95" (футурология, научная фантастика, антиутопия)
Путь к неочеловечеству

Категория: Библиотека статей по психологии, философии, футурологии и антиутопии | Добавил: AlexS (15.04.2012)
Просмотров: 2172 | Теги: Бостром, ИИ, искусственный интеллект, суперинтеллекта, ник | Рейтинг: 4.0/1
Всего комментариев: 0
avatar

Форма входа

Поиск по сайту

"Я" и Социум

Взаимодействие человека и общества проблемы и перспективы"

Новое на сайте

Инфообщество

Человек в информационном обществе"

Загадки человека

Телепатия в будущем

Гендер

Психология феминизма"

Арт-терапия

Теория катарсиса

Отношения

Когда женщина боится мужчину

Новости блога

Семиотика

Фаллический символ

LI

Статистика