Компьютеры с современный мир

Как называется мозг компьютера. Человеческий мозг: непознанный биологический компьютер

Представьте себе экспериментальный нанонаркотик, который способен связывать сознания разных людей. Представьте, как группа предприимчивых нейробиологов и инженеров открывает новый способ использования этого наркотика – запустить операционную систему прямо внутри мозга. Тогда люди смогут телепатически общаться между собой, используя мысленный чат, и даже манипулировать телами других людей, подчиняя себе действия их мозга. И несмотря на то, что это сюжет научно-фантастической книги Рамеза Наама «Нексус», описанное им будущее технологий уже не кажется таким далеким.

Как подсоединить мозг к планшету и помочь парализованным больным общаться

Для пациента T6 2014 стал самым счастливым годом жизни. Это был год, когда она смогла управлять планшетным компьютером Nexus с помощью электромагнитного излучения своего мозга и буквально перенестись из эры 1980-х с их диско-ориентированными системами (Disk Operating System, DOS) в новых век андроидной ОС.

T6 - женщина 50 лет, страдающая боковым амиотрофическим склерозом, известным также как болезнь Лу Герига, которая вызывает прогрессирующее повреждение двигательных нейронов и паралич всех органов тела. T6 парализована почти полностью от шеи и вниз. До 2014 года она абсолютно не могла взаимодействовать с внешним миром.

Паралич может наступить и от повреждений костного мозга, инсульта или нейродегенеративных заболеваний, которые блокируют способность говорить, писать и вообще как-либо общаться с окружающими.

Эра интерфейсов, связывающих мозг и машину, расцвела два десятилетия назад, в процессе создания ассистивных устройств, которые бы помогли таким пациентам. Результат был фантастическим: слежение за взглядом (eye-tracking) и слежение за положением головы пользователя системы (head-tracking) позволили отслеживать движения глаз и использовать их как выходные данные для управления курсором мыши на экране компьютера. Иногда пользователь мог даже кликать по ссылке, фиксируя свой взгляд на одной точке экрана. Это называется »время задержки».

Тем не менее, системы eye-tracking были тяжелы для глаз пользователя и слишком дороги. Тогда появилась технология нейронного протезирования, когда устраняется посредник в виде сенсорного органа и мозг связывается с компьютером напрямую. В мозг пациента вживляется микрочип, и нейросигналы, связанные с желанием или намерением, могут быть расшифрованы с помощью сложных алгоритмов в режиме реального времени и использованы для контроля курсора на интерфейсе компьютера.

Два года назад, пациентке T6 имплантировали в левую сторону мозга, отвечающую за движение, 100-канальную электродную установку. Параллельно Стэнфордская лаборатория работала над созданием прототипа протеза, позволяющего парализованным печатать слова на специально разработанной клавиатуре, просто думая об этих словах. Устройство работало следующим образом: встроенные в мозг электроды записывали мозговую активность пациентки в момент, когда она смотрела на нужную букву на экране, передавали эту информацию на нейропротез, интерпретирующий затем сигналы и превращающий их в непрерывное управление курсором и щелчками на экране.

Однако этот процесс был чрезвычайно медленным. Стало понятно, что на выходе получится устройство, работающее без непосредственного физического соединения с компьютером через электроды. Сам интерфейс тоже должен был выглядеть интереснее, чем в 80-х. Команда клинического института BrainGate, занимающаяся этими исследованиями, поняла, что их система «указания и щелчка» была похожа на нажатие пальцем на сенсорный экран. И поскольку сенсорными планшетами большинство из нас пользуется каждый день, то рынок их огромен. Достаточно просто выбрать и купить любой из них.

Парализованная пациентка T6 смогла «нажимать» на экран планшета Nexus 9. Нейропротез связывался с планшетом через протокол Bluetooth, то есть как беспроводная мышь.

Сейчас команда работает над продлением работоспособности имплантата на срок всей жизни, а также разрабатывает системы других двигательных маневров, таких как «выделить и перетащить» и мультисенсорные движения. Кроме того, BrainGate планируют расширить свою программу на другие операционные системы.

Компьютерный чип из живых клеток мозга

Несколько лет назад исследователи из Германии и Японии смогли симулировать 1 процент активности человеческого мозга за одну секунду. Это стало возможным только благодаря вычислительной мощности одного из самых сильных в мире суперкомпьютеров.

Но человеческий мозг до сих пор остается самым мощным, низко энергозатратным и эффективным компьютером. Что если бы можно было использовать силу этого компьютера для питания машин будущих поколений?

Как бы дико это не звучало, нейробиолог Ош Агаби запустил проект «Конику» (Koniku) как раз для реализации этой цели. Он создал прототип 64-нейронной кремниевой микросхемы. Первым приложением этой разработки стал дрон, который может «чуять» запах взрывчатых веществ.

Одой из самых чутких обонятельных способностей отличаются пчелы. На самом деле, они даже перемещаются в пространстве по запаху. Агаби создал дрон, который не уступает пчелиной способности распознавать и интерпретировать запахи. Он может быть использован не только для военных целей и обнаружении бомб, но и для исследования сельхозугодий, нефтеперерабатывающих заводов - всех мест, где уровень здоровья и безопасности может быть измерен по запаху.

В процессе разработки Агаби и его команда решали три основные проблемы: структурировать нейроны так же, как они структурированы в мозге, прочитать и записать информацию в каждый отдельный нейрон и создать стабильную среду.

Технология индуцированной дифференцировки плюрипотентной клетки - метод, когда зрелая клетка, например, кожи, генетически встроена в исходную стволовую клетку, позволяет любой клетке превратиться в нейрон. Но как и любым электронным компонентам, живым нейронам нужна специальная среда обитания.

Поэтому нейроны были помещены в оболочки с управляемой средой, для регулировки уровня температуры и водорода внутри, а также для подачи им питания. Кроме того, такая оболочка позволяет контролировать взаимодействие нейронов между собой.

Электроды под оболочкой позволяют считывать или записывать информацию на нейроны. Агаби описывает этот процесс так:

«Мы заключаем электроды в оболочку из ДНК и обогащенных протеинов, которая стимулирует нейроны формировать искусственную тесную связь с этими проводниками. Так, мы можем считывать информацию с нейронов или, наоборот, посылать информацию на нейроны тем же способом или посредством света или химических процессов».

Агаби верит, что будущее технологий - за раскрытием возможностей так называемого wetware - человеческого мозга в корреляции с машинным процессом.

«Нет практических границ для того, какими большими мы сделаем наши будущие устройства или как по-разному мы может моделировать мозг. Биология - это единственная граница».

Дальнейшие планы «Конику» включат разработку чипов:

  • с 500 нейронами, который будет управлять машиной без водителя;
  • с 10 000 нейронами - будет способен обрабатывать и распознавать изображения так, как это делает человеческий глаз;
  • с 100 000 нейронами - создаст робота с мультисенсорным входом, который будет практически неотличим от человека по перцептивным свойствам;
  • с миллионом нейронов - даст нам компьютер, который будет думать сам за себя.

Чип памяти, встроенный в мозг

Каждый год сотни миллионов людей испытывают сложности из-за потери памяти. Причины этому разные: повреждения мозга, которые преследуют ветеранов и футбольных игроков, инсульты или болезнь Альцгеймера, проявляющиеся в старости, или просто старение мозга, которое ожидает всех нас. Доктор Теодор Бергер, биомедицинский инженер Университета Южной Калифорнии, на средства Агенства по перспективным оборонным исследованиям Министерства обороны США DARPA, тестирует расширяющий память имплантат, который имитирует обработку сигнала в момент, когда нейроны отказываются работать с новыми долгосрочными воспоминаниями.

Чтобы устройство заработало, ученые должны понять, как работает память. Гиппокамп - это область мозга, которая отвечает за трансформацию краткосрочных воспоминаний в долгосрочные. Как он это делает? И возможно ли симулировать его деятельность в рамках компьютерного чипа?

«По существу, память - это серия электрических импульсов, которые возникают с течением времени и которые генерируются определенным числом нейронов», - объясняет Бергер, - «Это очень важно, так как это значит, что мы можем свести этот процесс к математическому уравнению и поместить его в рамки вычислительного процесса».

Так, нейробиологи начали декодировать поток информации внутри гиппокампа. Ключом к этой дешифровке стал сильный электрический сигнал, который идет от области органа под названием СА3 - «входа» гиппокампа - к СА1 - «выходящему» узлу. Этот сигнал ослабляется у людей с расстройством памяти.

«Если бы мы могли воссоздать его, используя чип, мы бы восстановили или даже увеличили объем памяти», — говорит Бергер.

Но проследить этот путь дешифровки сложно, так как нейроны работают нелинейно. И любой незначительный фактор, замешанный в процессе, может привести к совсем другим результатам.Тем не менее, математика и программирование не стоят на месте, и сегодня могут вместе создать самые сложные вычислительные конструкции со множеством неизвестных и множеством «выходов».

Для начала ученые приучили крыс нажимать тот или иной рычаг, чтобы получить лакомство. В процессе запоминания крысами и превращения этого воспоминания в долгосрочное, исследователи тщательно фиксировали и записывали все трансформации нейронов, и затем по этой математической модели создали компьютерный чип. Далее, они ввели крысам вещество, временно дестабилизирующее их способность запоминать и ввели чип в мозг. Устройство воздействовало на «выходящий» орган СА1, и, вдруг, ученые обнаружили, что воспоминание крыс о том, как добиться лакомства восстановилось.

Следующие тесты были проведены на обезьянах. На этот раз ученые сконцентрировались на префронтальной коре головного мозга, которая получает и модулирует воспоминания, полученные из гиппокампа. Животным была продемонстрирована серия изображений, некоторые из который повторялись. Зафиксировав активность нейронов в момент узнавания ими одной и то же картинки, была создана математическая модель и микросхема, на ее основе. После этого работу префронтальной коры обезьян подавили кокаином и ученые вновь смогли восстановить память.

Когда опыты проводились на людях, Бергер избрал 12 волонтеров, больных эпилепсией, с уже имплантированными электродами в головной мозг, чтобы проследить источник их припадков. Повторяющиеся судороги разрушают ключевые части гиппокампа, необходимые для формирования долгосрочных воспоминаний. Если, к примеру, изучить активность мозга в момент припадков, можно будет восстановить воспоминание.

Точно также, как и в предыдущих экспериментах, был зафиксирован специальный человеческий «код памяти», который впоследствии сможет предсказать паттерн активности в клетках СА1, основываясь на данных, хранящихся или возникающих в СА3. В сравнении с «настоящей» мозговой активностью, такой чип работает с точностью около 80%.

Пока рано говорить о конкретных результатах после опытов на людях. В отличие от моторного кортекса головного мозга, где каждый отдел отвечает за определенный орган, гиппокамп организован хаотично. Также пока рано говорить, сможет ли такой имплантат вернуть память тем, кто страдает от повреждений «выходящего» участка гиппокампа.

Проблемный остается вопрос геерализации алгоритма для такого чипа, так как экспериментальный прототип был создан на индивидуальных данных конкретных пациентов. Что, если код памяти разный для всех, в зависимости от типа входящих данных, которые он получает? Бергер напоминает, что и мозг ограничен своей биофизикой:

«Есть только такое количество способов, которыми электрические сигналы в гиппокампе могут быть обработаны, которое несмотря на свое множество, тем не менее ограничено и конечно», — говорит ученый.

Привет! начинающие «компьютерные гении». Пишу в основном для старшего поколения, людей по жизни не связанных с компьютерами, а сегодня желающих понять, как же работает этот странный механизм, уже понимающий нашу речь и своим приятным голосом отвечающий на наши вопросы.

Человечество всегда подражало природе в создании механизмов.

Она (природа) подсказывала, как создать крылья самолетов и вертолетов, реактивные двигатели ракет и прочие изобретения. Все они созданы по подобию животных, птиц, насекомых и прочих земноводных. Пришло, наконец, время создать подобие «Homo sapiens» и вот это подобие разумного человека у нас на столе, в кармане, в автомобиле. Все эти умные устройства (гаджеты) имеют разные тела и лица, но устроены и работают по одним правилам, часто скопированным с человека.

Компьютер и человек – что общего?

Конечно, сравнить компьютер с человеком, что сравнить птицу с самолетом, но все – же…

Самое главное в человеке – это его мозг. Пока , жив и человек. В нашем мозге есть отделы управляющие картинкой полученной от глаз, и других органов восприятия. Вся информация перерабатывается, часть откладывается во временную память, часть записывается (запоминается) в долгую память, а часть удаляется в «корзину» с возможностью последующего восстановления.


Мозг компьютера это его процессор. Процессор, так же как и мозг считывает информацию с видеокамер, микрофонов, команд компьютерной мышки или голосовых команда, а за тем, после обработки процессором, выдает нам картинку на монитор или звук в колонки. В компьютере так же имеется временная память (КЭШ), оперативная память и долговременная память, хранящаяся на различных дисках (флэшках). Всю ненужную информацию, мы в любое время можем удалить сначала в корзину, а по прошествии времени очистить её содержимое за ненадобностью или восстановить нечаянно удаленные документы.

Система питания компьютера и человека

Человек — изделие, работающее на электрохимических процессах. Каждый из нас это объект управляемый слабыми электрическими полями, и химическими реакциями. Энергию мы вырабатываем с получением биологической пищи. У нас имеется сложная система питания.

Компьютер, как известно, работает от электричества, его систему питания обеспечивает блок питания или батареи питания (аккумуляторы). Вся система питания компьютера связана сверхтонкими проводниками, у человека это сосуды,мышцы, нервы и прочие связи.

Обучение человека и компьютера.

Компьютеры зародились во второй половине прошлого века. В отличие от рожденного человека, первые компьютеры занимали огромные площади. Таким образом, если человек с возрастом умнел и вырастал, компьютеры становились умнее и меньше. Поначалу для компьютеров создавались маленькие программы для вычисления. Со временем, программисты объединяли готовые программы в группы независимых программ. Система превращалась в союз тысяч программ, работающих вместе для решения сложных задач. Так человечество совместными усилиями создало мощные процессоры, управляемые миллионами программ.

В наше время компьютер это уже вполне зрелый юноша землян. Впереди у него фантастические возможности- соединения с человеком. Не могу с уверенностью сказать, хорошо это или плох.Уверен,что «СОЗДАТЕЛЬ»человечества не погубить свое творение. Надеюсь статья оказалась кому то полезной.

За ранее благодарен всем кто поделился информацией в социальных сетях.

Илья 817

Центральный процессор или ЦПУ – центральное процессорное устройства (англ. CPU – central processing unit, или центральное обрабатывающее устройство, если дословно) – самый важный компонент любого компьютера, это мозг компьютера. Эго еще часто называют просто микропроцессором или процессором. Какую роль процессор играет в системе компьютера? Ответ на этот вопрос прост – самую главную! Именно процессор выполняет все вычисления и обработку информации.

Цены в интернет-магазинах:

Electrozon 4 990 Р

Микропроцессоры, отличаются один от одного по таким основным характеристикам как тактовая частота, которая измеряется в (МГц и ГГц), и производительность. На сегодняшний день, как правило, используются процессоры, разработанные известными фирмами Intel и AMD.

Как и все другие компоненты компьютера, микропроцессоры тоже прошли стадию развития от самого создания и до сегодняшних дней. И этот процесс бесконечен, пока идет развитие технологий.
Давайте же коротко рассмотрим историю создания и развития микропроцессоров.Так самые первые процессоры были изобретены, еще в далеких 1940-х годах. Тогда для создания процессоров использовали вакуумные лампы, ферритовые сердечники (устройства памяти) и электромеханические реле. Такие процессоры были ненадежные, имели низкое быстродействие. Тогда в средине 1950-х 60-х стало возможно внедрения транзисторов, которые монтировались к современной на то время плате. А со временем стало использование микросхем, которые ускорили быстродействие и надежность тогдашних процессоров.

Цены в интернет-магазинах:

compyou.ru 6 030 Р

В начале 1970-х годов благодаря стремительному развитию технологий стало возможным создание микропроцессора - микросхемы, на кристалле которой располагались все основные блоки и элементы процессора. А уже 15 ноября 1971 году фирма Intel презентовала свой первый в мире 4-разрядный микропроцессор, 4004 который использовался в микрокалькуляторах. Содержал такой процессор 2300 транзисторов, а тактовая частота составляла 92,6 кГц, и стоил он 300 долларов!

На смену уже устаревшему 4-разрядному процессору пришли более современные 8-разрядные Intel 8080 и 16-разрядный 8086 (включавший в себя 29 тысяч транзисторов и работал на частоте 4,77 МГц), заложившие основы архитектуры всех современных настольных процессоров.Первый же персональный компьютер от IBM бил оснащен 8-разрядным процессором i8088 (из 8-розрядной шиной).
В 1982 году, компания Intel представила новый i80286 с тактовой частотой (до 20МГц) и содержал уже около 134 тис. транзисторов.А далее уже починается гонка за первенство на рынке процессоров между компаниями Intel и AMD, которая и дала толчок к очень быстрому и стремительному развитию технологий. Но это уже другая история.

Рассказать друзьям

Центральная идея работ знаменитого Рэя Курцвейла - искусственный интеллект, который со временем будет властвовать во всех сферах жизни людей. В своей новой книге «Эволюция разума» Курцвейл раскрывает бесконечный потенциал возможностей в сфере обратного проектирования человеческого мозга.

В той же статье Тьюринг поведал о другом неожиданном открытии, касающемся неразрешимых задач. Неразрешимые задачи - это те, что хорошо описываются единственным решением (которое, как можно показать, существует), но (как тоже можно показать) не могут быть решены никакой машиной Тьюринга (то есть вообще никакой машиной). Представление о существовании таких задач в корне противоречит сформировавшейся к началу XX в. догме о том, что все проблемы, которые можно сформулировать, являются решаемыми. Тьюринг показал, что число неразрешимых задач не меньше числа разрешимых задач. В 1931 г. к такому же выводу пришел Курт Гедель, сформулировавший «теорему о неполноте». Такая странная ситуация: мы можем сформулировать задачу, можем доказать, что у нее существует единственное решение, но при этом знаем, что никогда не сможем это решение найти.

Тьюринг показал, что вычислительные машины действуют на основании очень простого механизма. Поскольку машина Тьюринга (и, следовательно, любой компьютер) может определять свою дальнейшую функцию на основе полученных ею ранее результатов, она способна принимать решения и создавать иерархические информационные структуры любой сложности.

В 1939 г. Тьюринг сконструировал электронный калькулятор Bombe, который помогал дешифровать сообщения, составленные немцами на кодирующей машине Enigma. К 1943 г. группа инженеров при участии Тьюринга закончила создание машины Colossus, которую иногда называют первым в истории компьютером. Это позволило союзникам расшифровывать сообщения, созданные более сложной версией Enigma. Машины Bombe и Colossus были сконструированы для решения единственной задачи и не могли перепрограммироваться. Но свою функцию они выполняли блестяще. Считается, что отчасти благодаря им союзники могли предвидеть тактику немцев на протяжении всей войны, а Королевские военно-воздушные силы Великобритании в Битве за Британию смогли одолеть втрое превосходящие их по численности силы Люфтваффе.

Именно на этой основе Джон фон Нейман создал компьютер современной архитектуры, отражающей третью из четырех важнейших идей теории информации. На протяжении прошедших с тех пор почти семидесяти лет основное ядро этой машины, названной «машиной фон Неймана», практически не изменилось - как в микроконтроллере в вашей стиральной машине, так и в самом крупном суперкомпьютере. В статье, опубликованной 30 июня 1945 г. и озаглавленной «Первый проект отчета о EDVAC», фон Нейман изложил основные идеи, которые с тех пор направляли развитие информатики . В машине фон Неймана присутствует центральный процессор, где выполняются арифметические и логические операции, модуль памяти, в котором хранятся программы и данные, массовая память, программный счетчик и входные/выходные каналы. Хотя статья предназначалась для внутреннего пользования в рамках выполнения проекта, для создателей компьютеров она стала Библией. Вот так иногда обычный рутинный отчет может изменить мир.

Машина Тьюринга не была предназначена для практических целей. Теоремы Тьюринга не имели отношения к эффективности решения задач, а скорее описывали спектр задач, которые теоретически могут быть решены с помощью компьютера. Напротив, цель фон Неймана заключалась в создании концепции реального компьютера. Его модель заменила однобитную систему Тьюринга многобитной (обычно кратную восьми битам) системой. Машина Тьюринга имеет последовательную ленту памяти, так что программы затрачивают очень большое время на перемещение ленты вперед и назад для записи и извлечения промежуточных результатов. Напротив, в системе фон Неймана доступ к памяти осуществляется произвольным образом, что позволяет немедленно извлекать любые нужные данные.

Одной из ключевых идей фон Неймана является концепция хранимой программы, которую он развил за десять лет до создания компьютера. Суть концепции заключается в том, что программа хранится в том же модуле памяти с произвольным доступом, что и данные (а часто даже в том же блоке памяти). Это позволяет перепрограммировать компьютер для решения разных задач и создавать самомодифицирующийся код (в случае записывающих накопителей), что обеспечивает возможность рекурсии. До того времени практически все компьютеры, включая Colossus, создавались для решения конкретных задач. Концепция хранимой программы позволила компьютеру стать поистине универсальной машиной, соответствующей представлению Тьюринга об универсальности машинных вычислений.

Еще одно важное свойство машины фон Неймана заключается в том, что в каждой инструкции содержится операционный код, определяющий арифметическую или логическую операцию и адрес операнда в памяти компьютера.

Концепция фон Неймана об архитектуре компьютера отразилась в проекте EDVAC, над которым он работал совместно с Преспером Дж. Эккертом и Джоном Моучли. Компьютер EDVAC начал функционировать только в 1951 г., когда уже существовали другие компьютеры с хранимой программой, такие как Манчестерская малая экспериментальная машина, ENIAC, EDSAC и BINAC, причем все они были созданы под влиянием статьи фон Неймана и при участии Эккерта и Моучли. Фон Нейман также был причастен к появлению некоторых из этих машин, включая последнюю версию ENIAC, где использовался принцип хранимой программы.

У компьютера с архитектурой фон Неймана имелось несколько предшественников, но ни один из них - за одним неожиданным исключением - нельзя назвать истинной машиной фон Неймана. В 1944 г. Говард Эйкен выпустил Mark I, который можно было в какой-то степени перепрограммировать, но он не использовал хранимой программы. Машина считывала инструкции с перфокарты и немедленно их выполняла. В машине также не было предусмотрено условных переходов.

В 1941 г. немецкий ученый Конрад Цузе (1910–1995) создал компьютер Z-3. Он тоже считывал программу с ленты (в данном случае закодированную на пленке) и тоже не выполнял условных переходов. Интересно, что Цузе получил финансовую поддержку от Немецкого института самолетостроения, который использовал этот компьютер для изучения флаттера крыла самолета. Однако предложение Цузе о финансировании замены реле радиолампами не было поддержано нацистским правительством, которое считало развитие компьютерной технологии «не имеющим военного значения». Это, как мне кажется, в определенной степени повлияло на исход войны.

На самом деле у фон Неймана был один гениальный предшественник, причем жил он на сто лет раньше! Английский математик и изобретатель Чарльз Бэббидж (1791–1871) в 1837 г. описал свою аналитическую машину, основанную на тех же принципах , что и компьютер фон Неймана, и использовавшую хранимую программу, нанесенную на перфокарты жаккардовых ткацких машин. Память машины с произвольным доступом содержала 1000 слов по 50 десятичных знаков в каждом (что эквивалентно примерно 21 килобайту). Каждая инструкция содержала код операции и номер операнда - точно так же, как в современных компьютерных языках. Система не использовала условных переходов и циклов, так что это была настоящая машина фон Неймана. Полностью механическая, она, по-видимому, превзошла и дизайнерские, и организаторские возможности самого Бэббиджа. Он создал части машины, но так и не запустил ее.

Точно не известно, знали ли пионеры компьютеростроения XX в., включая фон Неймана, о работах Бэббиджа .

Однако создание машины Бэббиджа положило начало развитию программирования. Английская писательница Ада Байрон (1815–1852), графиня Лавлейс, единственный законный ребенок поэта лорда Байрона, стала первым в мире программистом. Она писала программы для аналитической машины Бэббиджа и отлаживала их в уме (поскольку компьютер так никогда и не заработал). Теперь программисты называют эту практику table checking. Она перевела статью итальянского математика Луиджи Менабреа об аналитической машине, добавив от себя существенные замечания и заметив, что «аналитическая машина плетет алгебраические рисунки, как ткацкий жаккардовый станок плетет цветы и листья». Возможно, она первой упомянула о возможности создания искусственного интеллекта, но сделала вывод, что аналитическая машина «сама не способна что-либо придумать».

Идеи Бэббиджа кажутся поразительными, если учесть, в какую эпоху он жил и работал. Однако к середине XX в. эти идеи были практически забыты (и вновь открыты лишь позднее). Именно фон Нейман придумал и сформулировал ключевые принципы действия компьютера в его современном виде, и недаром машину фон Неймана продолжают считать основной моделью вычислительной машины. Однако не будем забывать, что машина фон Неймана постоянно осуществляет обмен данными между отдельными модулями и внутри этих модулей, так что она не могла быть создана без теорем Шеннона и тех методов, которые он предложил для надежной передачи и хранения цифровой информации.

Все сказанное подводит нас к четвертой важной идее, которая преодолевает выводы Ады Байрон о неспособности компьютера к творческому мышлению и позволяет найти ключевые алгоритмы, используемые мозгом, чтобы потом применить их для превращения компьютера в мозг. Алан Тьюринг сформулировал эту задачу в статье «Вычислительные машины и разум», опубликованную в 1950 г., в которой содержится описание теперь широко известного теста Тьюринга, позволяющего определить близость ИИ к человеческому интеллекту.

В 1956 г. фон Нейман начал готовить серию лекций для престижных Силлимановских чтений в Йельском университете. Ученый уже был болен раком и не смог ни прочесть свои лекции, ни даже закончить рукопись, на основе которой создавались лекции. Тем не менее этот незаконченный труд является блестящим предсказанием того, что лично я воспринимаю как самый трудный и важный проект в истории человечества. Уже после смерти ученого, в 1958 г., рукопись была опубликована под названием «Компьютер и мозг». Так вышло, что последний труд одного из самых блестящих математиков прошлого столетия и одного из основоположников компьютерной технологии оказался посвящен анализу мышления. Это было первое серьезное исследование человеческого мозга с точки зрения математика и специалиста в области компьютеров. До фон Неймана компьютерные технологии и нейробиология представляли собой два отдельных острова, между которыми не существовало никакого моста.

Фон Нейман начинает повествование, описывая сходство и различие между компьютером и человеческим мозгом. Учитывая, в какую эпоху создавался этот труд, он представляется удивительно точным. Ученый отмечает, что выходной сигнал нейрона цифровой - аксон либо возбуждается, либо остается в покое. В то время было далеко не очевидно, что обработка выходного сигнала может происходить аналоговым путем. Обработка сигнала в дендритах, ведущих к нейрону, и в теле нейрона аналоговая, и фон Нейман описал эту ситуацию с помощью взвешенной суммы входных сигналов с пороговым значением.

Эта модель функционирования нейронов привела к развитию коннекционизма и к использованию данного принципа для создания как аппаратурного оформления, так и компьютерных программ. (Как я рассказывал в предыдущей главе, первая такая система, а именно программа для IBM 704, была создана Фрэнком Розенблаттом из Корнельского университета в 1957 г., сразу после того, как стала доступна рукопись лекций фон Неймана.) Теперь у нас есть более сложные модели, описывающие сочетания входных сигналов нейронов, но общая идея об аналоговой обработке сигналов с помощью изменения концентрации нейромедиаторов по-прежнему верна.

На основе концепции универсальности компьютерных вычислений фон Нейман пришел к выводу, что даже при кажущемся радикальном различии архитектуры и структурных единиц головного мозга и компьютера с помощью машины фон Неймана мы можем симулировать происходящие в головном мозге процессы. Обратный постулат, однако, не является справедливым, поскольку головной мозг не является машиной фон Неймана и не имеет хранимой программы (хотя в голове мы можем симулировать действие очень простой машины Тьюринга). Алгоритмы или методы функционирования мозга определены его структурой. Фон Нейман пришел к справедливому заключению, что нейроны могут выучивать соответствующие образы на основании входных сигналов. Однако во времена фон Неймана не было известно, что обучение также происходит путем создания и разрушения контактов между нейронами.

Фон Нейман также указал, что скорость обработки информации нейронами очень низкая - порядка сотни вычислений в секунду, однако мозг компенсирует это тем, что одновременно осуществляет обработку информации во множестве нейронов. Это еще одно очевидное, но очень важное открытие. Фон Нейман утверждал, что все 10 10 нейронов мозга (эта оценка также достаточно точна: по сегодняшним представлениям, в головном мозге содержится от 10 10 до 10 11 нейронов) обрабатывают сигналы в одно и то же время. Более того, все контакты (в среднем от 10 3 до 10 4 на каждый нейрон) обсчитываются одновременно.

Учитывая примитивный уровень развития нейробиологии того времени, оценки и описания функции нейронов, сделанные фон Нейманом, удивительно точны. Однако я не могу согласиться с одним аспектом его работы, а именно с представлением об объеме памяти мозга. Он считал, что мозг запоминает каждый сигнал на всю жизнь. Среднюю продолжительность жизни человека фон Нейман оценивал в 60 лет, что составляет примерно 2 х 10 9 секунды. Если каждый нейрон за одну секунду получает примерно 14 сигналов (что на самом деле на три порядка ниже истинной величины), а всего в головном мозге содержится 10 10 нейронов, выходит, что объем памяти мозга составляет около 10 20 бит. Как я писал выше, мы запоминаем лишь небольшую часть наших мыслей и опыта, но даже эти воспоминания хранятся не как побитовая информация низкого уровня сложности (как в видео), а скорее в виде последовательности образов более высокого порядка.

По мере того как фон Нейман описывает каждый механизм в функции головного мозга, он одновременно демонстрирует, как современный компьютер мог бы осуществить ту же самую функцию, несмотря на кажущееся различие между мозгом и компьютером. Аналоговые механизмы действия мозга можно моделировать с помощью цифровых механизмов, поскольку цифровые вычисления способны моделировать аналоговые значения с любой степенью точности (а точность передачи аналоговой информации в мозге достаточно низкая). Можно также имитировать массивный параллелизм функции мозга, учитывая значительное превосходство компьютеров по скорости серийных вычислений (со времен фон Неймана это превосходство еще более усилилось). Кроме того, мы можем осуществлять параллельную обработку сигналов в компьютерах с помощью параллельно функционирующих машин фон Неймана - именно так действуют современные суперкомпьютеры.

Учитывая способность людей быстро принимать решения при столь низкой скорости работы нейронов, фон Нейман пришел к выводу, что функции головного мозга не могут задействовать длинные последовательные алгоритмы. Когда третий бейс-мен получает мяч и решает бросить его на первую, а не на вторую базу, он принимает это решение за какую-то долю секунды - за это время каждый нейрон едва успевает осуществить несколько циклов возбуждения. Фон Нейман приходит к логичному выводу, что замечательная способность мозга связана с тем, что все 100 млрд нейронов могут обрабатывать информацию одновременно. Как я отмечал выше, зрительная кора делает сложные выводы всего за три или четыре цикла возбуждения нейронов.

Именно значительная пластичность мозга позволяет нам обучаться. Однако компьютер обладает гораздо большей пластичностью - его методы можно полностью изменить путем смены программного обеспечения. Таким образом, компьютер может имитировать мозг, а вот обратное утверждение неверно.

Когда фон Нейман сравнивал возможности массированной параллельной активности мозга с немногочисленными компьютерами того времени, казалось очевидным, что мозг отличается гораздо большей памятью и скоростью. Сегодня уже сконструирован первый суперкомпьютер, по самым консервативным оценкам, удовлетворяющий тем функциональным требованиям, которые нужны для моделирования функций человеческого головного мозга (около 10 16 операций в секунду) . (По моему мнению, компьютеры такой мощности в начале 2020-х гг. будут стоить около 1000 долларов.) Что касается объема памяти, мы продвинулись еще дальше. Труд фон Неймана появился в самом начале компьютерной эры, но ученый был уверен в том, что в какой-то момент мы сможем создавать компьютеры и компьютерные программы, способные имитировать человеческий мозг; именно поэтому он и готовил свои лекции.

Фон Нейман был глубоко убежден в ускорении прогресса и в его значительном влиянии на жизнь людей в будущем. Через год после смерти фон Неймана, в 1957 г., его коллега математик Стэн Юлам цитировал слова фон Неймана, сказавшего в начале 1950-х гг., что «любое ускорение технологического прогресса и изменения образа жизни людей создает впечатление приближения некой важнейшей сингулярности в истории человеческой расы, за пределами которой человеческая деятельность в том виде, какой мы знаем ее сегодня, больше не может продолжаться». Это первый известный случай использования слова «сингулярность» для описания технологического прогресса человечества.

Важнейшая догадка фон Неймана заключалась в обнаружении сходства между компьютером и мозгом. Заметим, что частью человеческого интеллекта является эмоциональный интеллект. Если догадка фон Неймана верна и если согласиться с моим утверждением, что небиологическая система, удовлетворительно воспроизводящая интеллект (эмоциональный и другой) живого человека, обладает сознанием (см. следующую главу), придется сделать вывод, что между компьютером (с правильным программным обеспечением) и сознательным мышлением имеется явное сходство. Итак, был ли прав фон Нейман?

Большинство современных компьютеров - полностью цифровые машины, тогда как человеческий мозг использует как цифровые, так и аналоговые методы. Однако аналоговые методы легко воспроизводятся в цифровом варианте с любой степенью точности. Американский специалист в области компьютерных технологий Карвер Мид (род. в 1934 г.) показал, что аналоговые методы мозга можно напрямую воспроизвести в кремниевом варианте, и реализовал это в виде так называемых нейроморфных чипов . Мид продемонстрировал, что данный подход может быть в тысячи раз более эффективным, чем цифровая имитация аналоговых методов. Если речь идет о кодировании избыточных алгоритмов новой коры, возможно, имеет смысл воспользоваться идеей Мида. Исследовательская группа IBM под руководством Дхармендра Модхи применяет чипы, имитирующие нейроны и их контакты, в том числе их способность образовывать новые контакты . Один из чипов, названный SyNAPSE, напрямую модулирует 256 нейронов и примерно четверть миллиона синаптических связей. Цель проекта заключается в симуляции новой коры, состоящей из 10 млрд нейронов и 100 трлн контактов (что эквивалентно человеческому мозгу), которая использует всего один киловатт энергии.

Более пятидесяти лет назад фон Нейман заметил, что процессы в головном мозге происходят чрезвычайно медленно, но отличаются массированной параллельностью. Современные цифровые схемы действуют как минимум в 10 млн раз быстрее, чем электрохимические переключатели мозга. Напротив, все 300 млн распознающих модулей коры мозга действуют одновременно, и квадрильон контактов между нейронами может активизироваться в одно и то же время. Следовательно, для создания компьютеров, которые могли бы адекватно имитировать человеческий мозг, необходимы соответствующий объем памяти и производительность вычислений. Нет нужды напрямую копировать архитектуру мозга - это очень неэффективный и негибкий метод.

Какими же должны быть соответствующие компьютеры? Многие исследовательские проекты направлены на моделирование иерархического обучения и распознавания образов, происходящих в новой коре. Я сам занимаюсь подобными исследованиями с привлечением иерархических скрытых моделей Маркова. По моим оценкам, для моделирования одного цикла распознавания в одном распознающем модуле биологической новой коры требуется около 3000 вычислений. Большинство симуляций построено на значительно меньшем числе вычислений. Если принять, что головной мозг осуществляет около 10 2 (100) циклов распознавания в секунду, получаем общее число 3 х 10 5 (300 тыс.) вычислений в секунду для одного распознающего модуля. Если же умножить это число на общее число распознающих модулей (3 х 10 8 (300 млн, по моим оценкам)), получаем 10 14 (100 трлн) вычислений в секунду. Примерно такое же значение я привожу в книге «Сингулярность уже близка». По моим прогнозам, для функциональной симуляции головного мозга требуется скорость от 10 14 до 10 16 калькуляций в секунду. По оценкам Ганса Моравека, основанным на экстраполяции данных для начальной обработки зрительных сигналов во всем головном мозге, это значение составляет 10 14 калькуляций в секунду, что совпадает с моими расчетами.

Стандартные современные машины могут работать со скоростью до 10 10 калькуляций в секунду, однако с помощью ресурсов облака их производительность можно существенно увеличить. Самый быстрый суперкомпьютер, японский компьютер «К», уже достиг скорости 10 16 калькуляций в секунду. Учитывая массированную избыточность алгоритмов новой коры, хороших результатов можно добиться с помощью нейроморфных чипов, как в технологии SvNAPSE.

Что касается требований к памяти, нам нужно около 30 бит (примерно 4 байта) для каждого контакта с одним из 300 млн распознающих модулей. Если к каждому распознающему модулю подходит в среднем восемь сигналов, получаем 32 байта на распознающий модуль. Если учесть, что вес каждого входного сигнала составляет один байт, получаем 40 байт. Добавим 32 байта для нисходящих контактов - и получим 72 байта. Замечу, что наличие восходящих и нисходящих разветвлений приводит к тому, что число сигналов намного больше восьми, даже если учесть, что многие распознающие модули пользуются общей сильно разветвленной системой связей. Например, в распознавании буквы «p» могут участвовать сотни распознающих модулей. Это означает, что тысячи распознающих модулей следующего уровня участвуют в распознавании слов и фраз, содержащих букву «p». Однако каждый модуль, ответственный за распознавание «p», не повторяет это древо связей, питающих все уровни распознавания слов и фраз с «p», у всех этих модулей древо связей общее.

Сказанное выше верно и для нисходящих сигналов: модуль, ответственный за распознавание слова apple, сообщит всей тысяче стоящих ниже модулей, ответственных за распознавание «e», что ожидается образ «e», если уже распознаны «a», «p», «p» и «l». Это древо связей не повторяется для каждого модуля, распознающего слово или фразу, который хочет информировать модули нижестоящего уровня, что ожидается образ «e». Это древо общее. По этой причине среднее оценочное значение в восемь восходящих и восемь нисходящих сигналов для каждого распознающего модуля является вполне разумным. Но даже если мы повысим это значение, это не сильно изменит конечный результат.

Итак, с учетом 3 х 10 8 (300 млн) распознающих модулей и 72 байт памяти для каждого, получаем, что общий объем памяти должен составлять около 2 х 10 10 (20 млрд) байт. А это весьма скромное значение. Такой памятью обладают обычные современные компьютеры.

Все эти расчеты мы выполнили для приблизительной оценки параметров. Учитывая, что цифровые схемы примерно в 10 млн раз быстрее сетей нейронов в биологической коре, нам не нужно воспроизводить массированный параллелизм человеческого мозга - весьма умеренного параллельного процессинга (по сравнению с триллионным параллелизмом в головном мозге) будет вполне достаточно. Таким образом, необходимые вычислительные параметры вполне достижимы. Способность нейронов головного мозга к переподключению (помним, что дендриты постоянно создают новые синапсы) тоже можно имитировать с помощью соответствующего программного обеспечения, поскольку компьютерные программы гораздо пластичнее биологических систем, которые, как мы видели, впечатляют, но имеют пределы.

Избыточность мозга, необходимая для получения инвариантных результатов, безусловно, может быть воспроизведена в компьютерном варианте. Математические принципы оптимизации подобных самоорганизующихся иерархических систем обучения вполне понятны. Организация мозга далеко не оптимальна. Но она и не должна быть оптимальной - она должна быть достаточно хорошей, чтобы обеспечить возможность создавать инструменты, компенсирующие ее собственные ограничения.

Еще одно ограничение новой коры заключается в том, что в ней нет механизма, устраняющего или хотя бы оценивающего противоречащие друг другу данные; отчасти это объясняет весьма распространенную нелогичность человеческих рассуждений. Для решения данной проблемы у нас есть весьма слабая способность, называемая критическим мышлением, но люди ею пользуются гораздо реже, чем следовало бы. В компьютерной новой коре можно предусмотреть процесс, выявляющий противоречащие данные для их последующего пересмотра.

Важно отметить, что конструирование целого отдела мозга осуществить проще, чем конструирование одного нейрона. Как уже было сказано, на более высоком уровне иерархии модели часто упрощаются (тут просматривается аналогия с компьютером). Чтобы понять, как работает транзистор, нужно в деталях понимать физику полупроводниковых материалов, а функции одного реального транзистора описываются сложными уравнениями. Цифровая схема, осуществляющая перемножение двух чисел, содержит сотни транзисторов, но для создания модели такой схемы хватит одной или двух формул. Целый компьютер, состоящий из миллиардов транзисторов, можно смоделировать с помощью набора инструкций и описания регистра на нескольких страницах текста с привлечением нескольких формул. Программы для операционных систем, компиляторов языков или ассемблеров достаточно сложны, однако моделирование частной программы (например, программы распознавания языка на основе скрытых иерархических моделей Маркова) тоже сводится к нескольким страницам формул. И нигде в подобных программах вы не встретите детального описания физических свойств полупроводников или даже компьютерной архитектуры.

Аналогичный принцип верен и для моделирования мозга. Один конкретный распознающий модуль новой коры, который детектирует определенные инвариантные зрительные образы (например, лица), осуществляет фильтрацию звуковых частот (ограничивая входной сигнал определенным диапазоном частот) или оценивает временную близость двух событий, можно описать с помощью гораздо меньшего числа специфических деталей, чем реальные физические и химические взаимодействия, контролирующие функции нейромедиаторов, ионных каналов и других элементов нейронов, участвующих в передаче нервного импульса. Хотя все эти детали необходимо тщательно предусмотреть до перехода на следующий уровень сложности, при моделировании операционных принципов головного мозга многое можно упростить.

<<< Назад
Вперед >>>

Чтобы поддерживать тело в тонусе. Но не только мышцы требуют периодического напряжения. Нейронные пути и связи в мозгу также должны иногда получать свою дозу работы, и сегодня мы расскажем о том, как это реализовать. Итак, ... пять основных когнитивных функций: - Память - Внимание - Язык - Визуально-пространственные навыки - Рассуждения Для поддержания работоспособности мозга в оптимальной форме очень важно стимулировать все пять областей. И вот пять простых упражнений, с помощью которых вы можете...

https://www.сайт/journal/147964

– В бедах Галлии древней и Фракии
Виноваты российские хакеры!
Беспорядки в Мадриде, в Париже
Вызывают сегодня они же!
В Красностенной под бой курантов
Президентом сделали Трампа!
Террористы они, враги!..

– Господа, у вас есть мозги...

https://www.сайт/poetry/1145970

И своего философа. Хорошо отлаженную промышленную «хореографию» Тейлора - его «систему», как он любил это называть - взяли на вооружение предприниматели всей страны, а, со временем, и всего мира. Фабриканты в поисках максимальной... «Космической одиссеи 2001 года». Она производит столь берущее за душу и жутковатое впечатление именно благодаря эмоциональной реакции компьютера на расчленение его мозга : отчаяние ХЭЛа, нарастающее по мере того, как гаснут его схемы, то, как он по-детски трогательно...

https://www.сайт/journal/118394

Человека – это саморегулирующаяся система. Для наглядности представим, что мозг человека –компьютер , а психика –программы устанавливаемые на этот компьютер . Каждый компьютер изначально имеет некие программы по умолчанию, которые приводят его в действие. Так и человек получает набор таких программ при рождении – в науке их называют инстинктами (инстинкт самосохранения, продолжения рода и т.д.). Такие программы заложены...

https://www.сайт/magic/15533

Часы, в любой момент знает время с точностью до секунды. Третий, посмотрев на любой предмет, называет его размеры с точностью до двух-трех миллиметров. Четвертый говорит на 24 языках, включая пару придуманных... ". В Германии создана система, позволяющая печатать на экране компьютера с помощью мысли. Недавно это представление было поддержано опубликованными результатами исследования мозга Эйнштейна. Области мозга , обычно ассоциирующиеся с математическими способностями, увеличены и не пересекаются...

https://www.сайт/psychology/12448

1967 годах ученый-нейрофизиолог Джон Лилли написал книгу «Программирование и метапрограммирование человеческого биокомпьютера», в которой он совместил свои исследования нейрофизиологии коры головного мозга с идеями проектирования компьютеров . Программа - это по определению д-ра Лилли - это набор внутренне совместимых инструкций по обработке сигналов, формированию информации, запоминанию тех и других, подготовке сообщений; требует...

https://www.сайт/psychology/14016

... (Giulio Tononi), который занимается проектом по созданию «когнитивного компьютера », задача создания компьютера , настолько же «мощного» и гибкого, как сравнительно небольшой мозг млекопитающих, намного более трудная задача, чем может показаться. ... проектирования суперкомпьютеров возьмут на себя «железо» будущего «когнитивного компьютера ». Задача перед ними стоит действительно непростая: компьютер должен уметь, как и мозг , работать с множеством параллельных и постоянно изменяющихся потоков данных, ...

https://www.сайт/journal/116182

Которым предопределено умереть в раннем возрасте, до десяти лет, центр-мозг не строится. У прочих детей он воссоздаётся до пяти лет, и в пять лет происходит подключение его к компьютеру Определителя, который ведёт его по жизни. Он настраивает его на... Определитель человека. После того как центр-мозг полностью сформируется, Определитель включает его в работу, подключая к своему компьютеру . И дальше уже ведётся контроль за ребёнком через компьютер , который фиксирует физическое состояние, мысли и...

Похожие публикации