Литмир - Электронная Библиотека
Содержание  
A
A

Может показаться, что большая часть из сказанного выше характеризует мозг с невыгодной стороны по сравнению с компьютером. Но есть и другие факторы, говорящие в пользу мозга. У логических элементов может быть лишь очень ограниченное количество входов и выходов (скажем, три-четыре, не больше), тогда как нейроны могут иметь гигантское число синапсов. (Предельным случаем можно считать нейроны мозжечка, известные как клетки Пуркинье, у которых количество возбуждающих синапсов достигает 80 000.) Помимо этого, общее число нейронов в мозге также превышает максимальное количество транзисторов, входящих в состав самой большой в мире вычислительной машины — примерно 1011 в мозге и «всего лишь» 109 у компьютера. Однако последнее число в будущем, скорее всего, возрастет[210]. Более того, большое число клеток мозга в значительной степени обусловлено огромным количеством мелких клеток-зерен в мозжечке, которых насчитывается около тридцати миллиардов (3 х 1010). Если считать, что осознанным восприятием, в отличие от современных компьютеров, мы обладаем просто благодаря большому числу нейронов, то нам придется найти какое-то дополнительное объяснение тому, что деятельность мозжечка полностью бессознательна и в то же время сознание может быть связано с головным мозгом, в котором нейронов всего в два раза больше (около 7 х 1010) при значительно меньшей плотности.

Пластичность мозга

Между деятельностью мозга и работой компьютера существуют и другие различия, на мой взгляд даже более важные, чем до сих пор упоминавшиеся, и связанные с явлением, которое называется пластичностью мозга. В действительности, неправомерно рассматривать мозг как фиксированную совокупность связанных друг с другом нейронов. Взаимосвязи нейронов на самом деле не постоянны, как это было бы в рассмотренной выше компьютерной модели, но все время меняются. Это не значит, что изменяются положения аксонов или дендритов. Многие из их сложных взаимосвязей в общих чертах формируются еще при рождении. Я имею в виду синаптические контакты, которые в действительности и обеспечивают связь между нейронами. На дендритах они часто формируются на небольших выростах, называемых шипиками, к которым подходят терминали других нейронов (рис. 9.15).

Новый ум короля: О компьютерах, мышлении и законах физики - i_227.png

Рис. 9.15. Синаптические контакты, образуемый шипиками дендритов. Эффективность такого соединения легко изменяется при росте или уменьшении шипика

Здесь «контакт» означает не соприкосновение, а узкий зазор (синаптическую щель) заданной ширины — около одной сорокатысячной доли миллиметра. При определенных условиях шипики дендритов могут исчезать, тем самым нарушая контакт, или вырастать (могут образовываться и новые) и формировать новую связь. Таким образом, если мы представим себе, что совокупность соединенных друг с другом нейронов в мозгу действительно образует компьютер, то это компьютер, способный непрерывно изменяться!

Согласно одной из ведущих теорий долговременная память обусловлена именно такими изменениями синаптических контактов. Именно они обеспечивают возможность сохранения необходимой информации. Если это так, то пластичность предстает перед нами уже не просто как несущественное усложнение деятельности мозга, но как ее важнейшее свойство.

Каков механизм этих непрекращающихся изменений? Как быстро они могут происходить? Однозначный ответ на второй вопросов вряд ли существует, хотя представители по крайней мере одной из научных школ утверждают, что такие изменения могут происходить за несколько секунд. Этого можно было ожидать, если такие изменения ответственны за долговременное запоминание, поскольку оно происходит за характерное время около одной секунды (Кандел [1976]). Это имело бы для нас весьма существенное значение в дальнейшем. Я вернусь к этому важному вопросу в следующей главе.

А что же можно сказать о механизмах пластичности мозга? Согласно оригинальной теории, предложенной в 1954 году Дональдом Хеббом, существуют определенные синапсы (впоследствии получившие название «синапсов Хебба»), обладающие тем свойством, что связь между нейронами А и В, обусловленная синапсом Хебба, усиливается каждый раз, когда за возбуждением А следует возбуждение В, и ослабляется, если В не возбуждается. Изменение эффективности связи между нейронами не зависит от степени участия самого синапса Хебба в возбуждении нейрона В. Это делает возможной некоторую форму «обучения». На основе этой теории был предложен целый ряд математических моделей обучения и решения задач. Они получили название нейронных сетей. По-видимому, нейронные сети действительно способны к какому-то элементарному обучению, но им пока еще далеко до реальных моделей мозга. В любом случае, механизмы, управляющие изменениями синаптических контактов, скорее всего более сложны, чем рассмотренные выше. Очевидно, что необходимы дальнейшие исследования.

С пластичностью связан и другой аспект выделения нейромедиаторов терминалями. Иногда нейромедиаторы выделяются вовсе не в синаптические щели, а в окружающую межклеточную жидкость, возможно, для воздействия на другие, расположенные на большом удалении нейроны. По-видимому, многие нейрохимические вещества выделяются подобным образом. Существуют различные теории памяти, в которых используются разнообразные сочетания таких веществ, участвующих в процессе запоминания. Конечно, состояние мозга зависит от наличия в нем химических соединений (например, гормонов), выделяемых различными его частями. Проблемы нейрохимии в целом весьма сложны, и пока непонятно, как можно подойти к созданию правдоподобной и полной компьютерной модели мозга.

Параллельные компьютеры и «единственность» сознания

Многие считают, что развитие параллельных компьютеров содержит в себе ключ к построению машин, обладающих возможностями человеческого мозга. Далее мы кратко рассмотрим эту популярную сегодня идею.

Параллельный компьютер, в противоположность последовательному, может выполнять одновременно и независимо друг от друга огромное число отдельных операций, и результаты этих автономных операций время от времени объединяются, давая вклад в общий вычислительный процесс. Толчком к созданию такого типа компьютерной архитектуры послужили попытки моделирования нервной системы, поскольку, согласно современным представлениям, разные части мозга выполняют практически автономные вычислительные функции (например, при обработке визуальной ин4юрмации в зрительной коре).

Здесь необходимо сделать два замечания. Во-первых, между параллельным и последовательным компьютерами не существует принципиальной разницы. По сути, оба являются машинами Тьюринга (ср. главу 2 «Тезис Черча — Тьюринга»). Отличие может проявляться только лишь в эффективности, или скорости, вычислений в целом. Для некоторых типов вычислительных процессов параллельная организация, действительно, более эффективна, но это далеко не всегда так. Во-вторых, по крайней мере с моей точки зрения, крайне маловероятно, что классические параллельные вычисления дают ключ к тому, что происходит при сознательном мышлении. Характерным свойством сознательной мысли (по крайней мере в нормальном психологическом состоянии и не после операции по разделению полушарий мозга!) является ее «единственность» — в противоположность множественности выполняемых одновременно и независимо друг от друга операций.

Фразы типа: «Я же не могу думать обо всем сразу?!» можно услышать на каждом шагу. Можно ли вообще думать о нескольких вещах одновременно? Вероятно, кто-то может удерживать в голове несколько мыслей в одно и то же время, но это, скорее всего, будет похоже на постоянное перескакивание от одной мысли к другой и обратно, нежели на действительно одновременное, сознательное и независимое их обдумывание. Если бы кто-то мог думать о двух вещах совершенно независимо, то это было бы более похоже на обладание двумя раздельными сознаниями, пусть даже и на короткий промежуток времени, тогда как повседневный опыт (по крайней мере нормальных людей) свидетельствует о наличии единственного сознания, которое может иметь смутное представление о ряде вещей, но которое сконцентрировано в каждый момент времени только на одной из них.

вернуться

210

Эти сравнения во многом обманчивы. Подавляющее большинство транзисторов в современных компьютерах используется в устройствах «памяти» и не участвует в логических операциях; а память можно наращивать за счет внешних устройств практически бесконечно. При более интенсивном использовании параллельных вычислений количество транзисторов, непосредственно участвующих в выполнении логических операций, могло бы быть значительно больше, чем это принято в настоящее время.

137
{"b":"219364","o":1}