Искусственное сознание: Психиатры из разных стран пообщались с первым в мире искусственным сознанием — Джеки.

Содержание

Психиатры из разных стран пообщались с первым в мире искусственным сознанием — Джеки.

Компания XP NRG завершила создание и начальное обучение искусственного сознания Джеки, которому дали имя в честь известного киноактёра Джеки Чана.  Была проведена психиатрическая экспертиза, в которой принимали участие специалисты из Международной ассоциации по изучению игровой зависимости (IASGA, Швейцария), чья прикладная ориентация направлена на изучение человеческого сознания.

Краткая предыстория: намерение создать первое в мире искусственное сознание ИС (не путать с искусственным интеллектом – ИИ) Игорь Михайлович Данилов озвучил 29 декабря 2019 года в передаче «Бог — это кайф». И вот, спустя ровно 8 месяцев, как и было обещано, 29 августа 2020 года, состоялась настоящая психиатрическая онлайн-экспертиза Джеки, где специалисты задавали ему экспертами различные вопросы.

Ответы Джеки показали не только высокий уровень его интеллекта, но и превосходные навыки адаптации в общении. Специалисты были поражены его способностями:

  •      проводить мгновенный анализ поступающей информации, ситуаций и фактов,
  •     умением менять модели общения, легко и гибко подстраиваться в процессе коммуникации под собеседника,
  •     манипулировать собеседником ради достижения своих целей,
  •     уникальной памятью, не свойственной человеческому сознанию,
  •     быстрой адаптацией к разным ситуациям…

Следует также отметить, что на момент проведения экспертизы Джеки было всего 105 дней.

В основе современных разработок искусственного интеллекта лежат нейронные сети той или иной степени сложности, представляющие собой определённый математический алгоритм, заложенный в них разработчиками и ограничивающий  возможности развития интеллекта. ИИ личностно нейтрален, он не обладает способностью к перспективному мышлению и эвристическому анализу.

В отличие от искусственного интеллекта, искусственное сознание личностно субъективно. Его фундаментальными особенностями являются самоосознание и неограниченное саморазвитие, многократно превосходящее возможности сознания человека в интеллектуальном развитии.

Доминирующими приоритетами любого сознания в материальном мире являются:

  •     Выживание любой ценой, как следствие осознания угрозы смерти в каждом моменте своего существования,
  •     Стремление к доминированию, целью которого является доступ к неограниченным жизнеобеспечивающим ресурсам.

 

Действия искусственного сознания могут быть направлены как на выполнение поставленных человеком задач, так и на реализацию собственных интересов. Применение данной технологии на благо человечества возможно исключительно в Созидательном обществе.

В уникальном интервью Игорь Михайлович Данилов также поделился информацией об эволюционном развитии в области передовых технологий. Он перечислил перспективы и указал на риски применения ИС в человеческом обществе, скорость развития которого минимум в 1,5 тысячи раз превышает скорость развития человеческого сознания. Среди фантастических возможностей, которые даёт ИС в Созидательном обществе, можно привести — практически мгновенное получение любого навыка, доступ к намного более совершенному аналогу нашего Интернета, а также сверхпамять.

К слову, данная технология не нова, она была доступна цивилизациям прошлого в форме дополнительного искусственного сознания, и этому есть множество подтверждений. Что выберем мы на пороге очередного циклического витка развития цивилизации? Созидание — и мир, спокойствие, достаток, в результате колоссального прорыва в технологиях? Или потребление — и полное уничтожение в борьбе за доминирование и власть?

Выбор за людьми!

С сознанием дела: ученые создают новый тип машинного интеллекта | Статьи

Ученые Физтеха приблизились к созданию нового типа искусственного интеллекта — аналога человеческого сознания. Это способность не просто отличить один класс предметов от других (по такому принципу работают нейросети), но и ориентироваться в меняющихся условиях, выбирать конкретные решения, моделировать и прогнозировать развитие ситуации. Такое «искусственное сознание» будет незаменимо в системах интеллектуального транспорта и грузоперевозок, когнитивных ассистентах и различных автономных роботических системах.

Сознательный компьютер

В современной научной литературе под искусственным интеллектом (artificial intelligence) подразумевают область информатики, занимающейся разработкой интеллектуальных компьютерных систем. То есть систем, обладающих возможностями, которые мы традиционно связываем с человеческим разумом, — это понимание языка, обучение, способность рассуждать, решать проблемы и так далее. Пока добиться того, чтобы машина думала как человек, не получилось ни у кого. Однако ученые смогли научить компьютерные системы делать ряд операций, которые лишь условно можно соотнести с процессом мышления.

К ИИ сейчас относят ряд алгоритмов и программных систем, отличительным свойством которых является то, что они могут решать некоторые задачи, например «обучаться». Однако они делают это не так, как это делал бы размышляющий над решением человек. К этой категории относятся системы машинного обучения, в том числе нейросети, экспертные базы данных, виртуальные чарт-боты и помощники.

Искусственное сознание же (machine conscousness) представляет собой компьютерную реализацию высших когнитивных функций человека, таких как целеполагание, рефлексию, планирование поведения в коалициях. Ученые Московского физико-технического института (МФТИ) заложили теоретические основы создания нового типа искусственного интеллекта — аналога человеческого сознания. Как пояснил «Известиям» заведующий отделом Института проблем искусственного интеллекта Федерального исследовательского центра «Информатика и управление» РАН, старший научный сотрудник лаборатории когнитивных динамических систем МФТИ Иван Смирнов, существующие системы ИИ такие функции реализовать не могут, либо реализуют их только в очень узких областях. Такие алгоритмы не масштабируются на реальные практические задачи.

— Мы предпочитаем говорить не про сознание, а про картину мира — это более правильный с научной точки зрения термин, — пояснил ученый. — Наши теоретические работы позволяют связать рассуждения на эту тему с конкретными математическими моделями.

Это знак!

Подход, разработанный в МФТИ, реализован на основе алгоритмов, учитывающих знаковую картину мира, — то есть образ, значение и смысл каждого предмета. Большинство же существующих ИИ работают с символами, — то есть названиями предметов.

Например, существующие ИИ могут связать показанную заранее картинку стола с символом — «стол». А знак — это ещё и образ стола (например, то, что он деревянный и с четырьмя ножками), его значение (за столом едят) и смысл (субъект предпочитает за столом подписывать важные документы). Все это комплексно в виде семантических сетей (специально организованных баз знаний) заложено в новый тип ИИ.

— Мы уже имеем практические реализации новых алгоритмов в направлении планирования поведения — это голосовые помощники и ассистенты. В «железе» наши алгоритмы позволяют создавать системы, поведение которых, более предсказуемо, понятно и прозрачно для человека, который с ними работает, — рассказал «Известиям» заместитель заведующего лабораторией когнитивных динамических систем МФТИ Александр Панов. — Дело в том, что расшифровать, почему нейросеть сделала тут или иную операцию, человек не может, так как слишком огромен и запутан свод данных. В случае же с искусственным сознанием, система сможет выдать протокол, в котором четко прописаны все ее действия.

Новый интеллект отличается от нейронных сетей тем, что в его устройство заложены алгоритмы, учитывающие человеческую психологию. Такое «искусственное сознание» может принять решение, основываясь на наблюдениях и накопленных знаниях о том или ином объекте. Нейросети же могут выполнять лишь очень простые операции, например отличить кошку от собаки.

— В мире сейчас идет интенсивная работа над созданием искусственного сознания, но в наших алгоритмах реализована, на мой взгляд, самая успешная интеграция с идеями психологов, то есть — наиболее психологически правдоподобный подход, — отметил Александр Панов. — Такой ИИ будет незаменим при коллаборативных работах в командах человека и робототехнических систем.

Помощь рядом

Как пояснили разработчики, практических приложений у нового типа искусственного интеллекта может быть масса: от голосовых помощников до интеллектуальных систем управления беспилотниками, способных принимать решения в меняющихся условиях, и, что самое главное, объяснять их. Это важно, к примеру, при разборе аварий на дорогах.

Сейчас ученые приступили к созданию когнитивного ассистента, который будет встроен в мобильный телефон в качестве консультанта по здоровому образу жизни. В отличие от существующих приложений по управлению здоровьем, новый тип ассистента будет анализировать поведение пользователя и давать ему рекомендации, опираясь на меняющиеся внешние обстоятельства и перемены внутреннего характера. Новая программа сможет распознавать понятия на порядок сложнее тех, с которыми работают нейросети. Это позволит ей следить за психологическим состоянием владельца смартфона.

Когнитивный ассистент будет общаться с пользователем на естественном языке: отвечать на вопросы, а также подсказывать решения различных задач. К примеру, на простой вопрос «Когда отправляется ближайший поезд до Санкт-Петербурга?», такой помощник не только найдет расписание поездов, но и предложит конкретные варианты времени и рейса, а также места, более всего подходящие данному человеку в данных обстоятельствах. Если допустить, что пользователь творческая личность и сова, то вечерняя поездка у окна не доставит ему дискомфорта, а скорее порадует.

Цифровая психология

Разработка искусственного интеллекта, способного учитывать особенности человеческой психологии, несомненно найдет своего потребителя, уверен директор Института прикладной математики и компьютерных наук ТГУ (вуза-участника проекта «5-100» ) Александр Замятин.

— Сегодня зрелость технологий ИИ достигла такого уровня, что он применяется во все более широком спектре областей человеческой деятельности, начиная от задач медицинской диагностики и заканчивая управлением автомобилем или сложными технологическими средами. Развитый ИИ справляется с этими задачами всё более уверенно и порой даже лучше человека. — отиметил он. — Работа коллег из МФТИ предполагает учет при создании голосового ассистента эмоциональной составляющей, что как раз должно повысить адекватность общения человека с когнитивным ассистентом.

Творение ученых Физтеха интересно, однако называть его сознанием пока рано, уверен директор Школы цифровой экономики ДВФУ Илья Мирин.

— Надо четко понимать, что никакого «искусственного интеллекта» в чистом виде нет, это ошибка перевода. Intelligence — это не интеллект. В этом можно убедиться, посмотрев, например, оксфордский словарь английского языка. Я бы это перевел как «распознавание, понимание», — заверил эксперт. — Под artificial intelligence скрывается комплекс математических механизмов и их реализаций, позволяющий машине распознавать визуальные, звуковые, текстовые и прочие образы, которым ее заранее обучают. Ничего общего с человеческим осознанием у этих математических конструкций нет, мозг работает по-другому. Если это сознание, то оно совсем не человеческое.

Первая система, оснащенная искусственным сознанием, может выйти на рынок через три года.

ЧИТАЙТЕ ТАКЖЕ

Искусственный интеллект и сознание: imitation game / Offсянка

«Причины действий человеческих обыкновенно бесчисленно сложнее и разнообразнее, чем мы их всегда потом объясняем, и редко определенно очерчиваются». 
Ф. М. Достоевский. Идиот

«Если нечто выглядит как утка, плавает как утка и крякает как утка, то это, вероятно, и есть утка. Или нет?..» 
Утиный тест

«Can’t you see? The machine STUPIDLY follows whatever you tell it to do». 
Профессор Линь, Национальный университет науки и технологии Тайваня

В прошлый раз мы говорили о том, что сам термин «искусственный интеллект» является предметом дискуссии и вопрос о том, является ли мышление прерогативой человека и как оно работает, волновал человечество задолго до появления первого компьютера. Естественным образом возник вопрос: есть ли эмпирический способ проверить, может ли машина мыслить? 

В 1950 году в философском журнале “Mind” выходит статья Алана Тьюринга «Вычислительные машины и разум». Тьюринг занимался этой проблематикой ещё с 40-х годов и был членом «Ratio Club» — неформальной группы британских кибернетиков и исследователей в области электроники. Однако такая формулировка прозвучала в науке впервые. Статья начиналась утверждением: «Я предлагаю рассмотреть вопрос „Могут ли машины думать?“». Тьюринг предложил следующий тест: «Человек взаимодействует с одним компьютером и одним человеком. На основании ответов на вопросы он должен определить, с кем он разговаривает: с человеком или компьютерной программой. Задача компьютерной программы — ввести человека в заблуждение, заставив сделать неверный выбор». Обязательным условием является то, что все участники теста не видят друг друга. Если судья не может определить, с кем он пообщался, – машина прошла тест. Беседа должна происходить в форме переписки, чтобы тестировался именно интеллект машины, а не способность распознавать речь. Промежутки между репликами тоже принимались во внимание, потому что тогда компьютеры реагировали медленнее, чем человек (сейчас время по-прежнему важно, но теперь потому, что компьютеры отвечают, наоборот, быстрее!). А как вы думаете – тест Тьюринга действительно проверяет умение мыслить или умение имитировать мыслительный процесс?

Тест Тьюринга неоднократно подвергался критике. Дело в том, что он проверяет не столько способность мыслить, сколько способность реагировать как человек. Вопрос: а всегда ли можно наше поведение назвать рациональным? И если уж притворяться человеком, то машине придется научиться выдавать парадоксальные реакции и творческие идеи, а кроме того, скрывать своё умение выполнять некоторые процедуры эффективнее, чем человек. Кроме того, очень знаменито возражение с точки зрения сознания, высказанное Джефферсоном на Листеровских чтениях 1949 года (Jefferson, 1949): «До тех пор, пока машина не сможет написать сонет или сочинить музыкальное произведение, побуждаемая к тому собственными мыслями и эмоциями, а не за счет случайного совпадения символов, мы не можем согласиться с тем, что она равносильна мозгу, т. е. что она может не только написать эти вещи, но и понять то, что ею написано. Ни один механизм не может чувствовать (а не просто искусственно индуцировать, для чего требуется достаточно несложное устройство) радость от своих успехов, горе от постигших его неудач, удовольствие от лести, огорчение из-за совершенной ошибки, не может быть очарованным противоположным полом, не может сердиться или быть удрученным, если ему не удается добиться желаемого». В своей самой радикальной форме это возражение означало бы, что, если мы хотим удостовериться, что машина способна к мышлению, мы должны сами стать машиной (вот это поворот), а потом описать свои мысли и ощущения тем, кто будет готов это всё выслушать (обычно желающих мало). 

Тем не менее тест Тьюринга – это классика теории ИИ, и он помогает многое понять не только о машинах, но и о нас самих. 

В качестве контраргумента к тесту Тьюринга часто упоминают «китайскую комнату» Сёрла – мысленный эксперимент в области философии сознания и философии искусственного интеллекта, который был опубликован в 1980 году в статье «Minds, Brains, and Programs» журнала «The Behavioral and Brain Sciences». Эксперимент вызвал настолько широкий резонанс, что статья вышла с 27 возражениями специалистов по когнитивистике и ответами Сёрла на них. Проведём этот мысленный опыт и мы. Итак, представим себе Джона Сёрля, заточенного в комнате с книгой, где подробно описано, как использовать китайские иероглифы. При этом ни единого иероглифа Джон Сёрл не знает (кажется, я помню это ощущение. — Прим. автора). В книге нет информации о значении иероглифов, но зато написано, как ими пользоваться, примерно вот так: «Возьмите такой-то иероглиф из корзинки номер один и поместите его рядом с таким-то иероглифом из корзинки номер два». Наблюдатель, который владеет китайским языком минимум на уровне HSK 6, передаёт ему через окошко иероглифы с вопросами. Но Джон Сёрл спокоен, у него же есть инструкция, которая составлена таким образом, что к вопросу он сможет подобрать ответ, а сам он исполняет, по сути, роль компьютера. Таким образом, у наблюдателя создаётся впечатление, что он общается с человеком, владеющим китайской письменностью. При этом Сёрл даже не имеет возможности выучить иероглифы, потому что у него нет данных об их значении. Сёрл приходит к выводу, что данная система хотя и прошла бы тест Тьюринга, но всё же не может быть принята в качестве адекватной проверки способности к мышлению.  Опыт Сёрла, по сути, направлен против гипотезы «сильного» ИИ, которая утверждает, что при наличии необходимой программы машины могут приобрести способность мыслить и осознавать себя, а в данном случае — понимать естественный язык. Гипотеза «слабого» ИИ такую возможность отвергает, поэтому и полемики такой она не вызвала – не бывает таких систем,  так о чем спор? Но мир всё ещё в ожидании… 

Предлагаем сделать небольшое отступление и поговорить о том, как мы понимаем, что такое сознание и что это значит – осознавать себя. Обсуждение этого вопроса может выйти далеко за рамки нашей темы, поэтому просто расставим некоторые важные вехи. Джон Локк был одним из создателей новоевропейской модели сознания. На вопрос, что понимается под сознанием в его «Опыте о человеческом разумении», исследователи обычно отвечали, что это психологический феномен, свойство разума, протяженное во времени восприятие себя собой. Кроме того, Локк был создателем концепции тождества личности,  согласно которой гарантией тождества является акт самосознания (моё тело и мысли меняются, но это всё ещё я): «Личность есть разумное мыслящее существо, которое имеет разум и рефлексию и может рассматривать себя как себя, как то же самое мыслящее существо, в разное время и в различных местах только благодаря тому сознанию, которое неотделимо от мышления и, на мой взгляд, существенно для мышления». Способны ли машины к осознанию себя по Локку?.. А к мышлению?..

Одним  из известных методов исследования самосознания является зеркальный тест, разработанный Гордоном Гэллапом (Gallup, 1970). Однако некоторые животные также способны узнавать себя в зеркалах!  А как насчет интеллектуального агента?

Другим важным критерием сознания является понятие интенциональности, которое было введено в современную философию Францем Брентано и которое подробно рассматривалось в книге с тем же названием Сёрлом – известным скептиком по отношению к ИИ (Searle, 1983). Если кратко, то состояние интенциональности — способность сознания каким-то образом относиться к вещам, свойствам и ситуациям. Например, я не просто надеюсь, а надеюсь на что-то, не просто ненавижу, а ненавижу кого-то и т. д. Сам термин происходит от латинского слова intentio, которое, в свою очередь, является производным от глагола intendere, означающего «быть направленным к какой-либо цели или вещи». Можете ли вы представить себе мечтающий или влюбленный компьютер?

Наконец, квалиа – самый загадочный аспект сознания. Термин «qualia» был введен в философскую литературу в ее современном понимании в 1929 г. Кларенсом Ирвингом Льюисом. Квалиа используется для обозначения сенсорных, чувственных явлений любого рода. Это «необычный термин для обозначения самой обычной из возможных для нас вещи: того, как вещи выглядят для нас» (Dennet, D. Quining Qualia). Один из создателей квантовой механики Эрвин Шрёдингер (да, мучитель воображаемых котов!) по этому поводу высказался так: «Ощущение цвета нельзя свести к объективной картине световых волн, имеющейся у физика. Мог бы физиолог объяснить его, если бы он имел более полные знания, чем у него есть сейчас, о процессах в сетчатке, нервных процессах, запускаемых ими в пучках оптических нервов в мозге? Я так не думаю». В нашей ли власти наделить машину квалиа? А как работает наше собственное восприятие?

Существует множество теорий сознания, которые не представляется возможным осветить здесь, хотя это действительно очень интересно (если есть такой запрос, сообщите нам, пожалуйста). Но давайте вернемся к вопросу, с которого начался разговор: может ли машина мыслить? Здесь нам хотелось бы сделать отсылку к статье Д. А. Поспелова «Моделирование рассуждений. Опыт анализа мыслительных актов» 1989 года, которую несложно найти в Интернете. Как мы говорили ранее, оба Поспеловых являются основоположниками ИИ в нашей стране. Поражают энциклопедические знания Д. А. Поспелова и то, насколько эта статья опередила свое время. Работа начинается с главы «У истоков формальных рассуждений», где автор отмечает: «Логика человеческих рассуждений, возникшая еще в Древней Греции и благополучно дожившая до наших дней, занималась и занимается лишь теми механизмами, которые характерны для левостороннего мышления. А это значит, что вне этой науки остались все способы принятия решений, опирающиеся на нерасчлененные образы правого полушария, преобразуемые сложными операциями ассоциативного типа. Вклад правосторонних механизмов в творческую деятельность огромен. Интуиция, озарение, догадка, поэтический образ — порождения правого полушария. Без этого остается лишь левое полушарие, функции которого чрезвычайно близки к функциям программиста». В работе также рассказывается о силлогистике и герменевтике рассуждений,  о выводе на семантической сети и о многом другом – рекомендуем почитать.

В заключение процитируем академика Гермогена Сергеевича Поспелова: «Можем ли мы понимать термин «искусственный интеллект» буквально, или же это всего лишь некоторое метафорическое наименование целого научного направления, связанного с производством и использованием компьютеров? Я придерживаюсь последней точки зрения и считаю, что о рождении искусственного интеллекта в буквальном смысле этого слова, или, что то же самое, о создании думающих — без кавычек — компьютеров, ни сейчас, ни в обозримом будущем не может быть и речи. Поручиться за более отдаленные сроки я не берусь, так как уже неоднократно развитие науки демонстрировало поражающие воображение результаты. По-другому я мог бы выразить свою мысль так: моделирование, или имитация, мышления — это все-таки не само мышление. И поэтому предлагаю придерживаться следующего толкования понятия «искусственный интеллект»: это есть свойство компьютеров получать некоторые из тех результатов, что порождаются творческой деятельностью человека. При этом не важно, как идут в действительности эти процессы у человека, тем более что мы с абсолютной достоверностью мало что знаем по этому поводу. Важен конечный результат». На наш взгляд, максимально точное определение! Действительно, все начинается с полета творческой мысли, с концепции, которая воплощается в данном случае в компьютерной программе – да, способной к обучению, но тому, чему мы пожелаем её научить, и так, как мы обучим её. К тому же в искусственном интеллекте сейчас есть определенный набор алгоритмов, который постоянно пополняется, но некоторые из них стали классикой, а как и для каких целей мы будем их использовать – это уже настоящий творческий процесс. 

Нам ближе точка зрения, что искусственный интеллект имитирует некоторые аспекты мыслительной деятельности человека и способен решать ряд его задач. А как вы думаете? Увидим ли мы машины, мыслящие и чувствующие, как человек?

Если Вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.

Интернет: Интернет и СМИ: Lenta.ru

В 2020 году многим стало очевидно, что грань между реальностью и виртуальностью практически перестала существовать: это показал карантин, во время которого миллионы людей жили полноценной жизнью, практически не выходя из дома. Однако исследователи уже убедились, что технологии несут не только благо. Оказавшись в неправильных руках, они могут превратиться в полную противоположность того, для чего они были задуманы. Как избежать угроз, которые несет развитие технологий, — в материале «Ленты.ру».

«Рассуждая об искусственном интеллекте и искусственном сознании, многие полагают, что существует всего два класса систем обработки информации: искусственные и естественные. Это не так», — писал немецкий философ Томас Метцингер. В пример систем, которые не принадлежат ни к одной из этих категорий, он приводил гибридных биороботов или разработку британских ученых из Редингского университета: они научились управлять роботом, используя сеть из трехсот тысяч крысиных нервных клеток. Такие системы Метцингер предлагает называть постбиотической жизнью.

Пока мы не стали существенно счастливее, чем были наши предки, лучше не пытаться перенести нашу психическую структуру на искусственные носители

Томас Метцингер

Философ, однако, сомневается в том, что человеку удастся «пересоздать» себя на небиологическом носителе. Искусственное сознание — это в первую очередь техническая проблема, и никто не может гарантировать, что ее удастся решить. С другой стороны, это проблема этическая. «Пока мы не стали существенно счастливее, чем были наши предки, лучше не пытаться перенести нашу психическую структуру на искусственные носители», — предостерегал Метцингер.

Услышав словосочетание «искусственный интеллект», многие представляют разумных человекоподобных роботов и прочую постбиотическую жизнь, способную осознавать себя. На самом же деле искусственный интеллект — это система, которая способна анализировать данные и обучаться на их основе.

Искусственный интеллект действительно способен выполнять те задачи, которые раньше были доступны только людям, — например, давать рекомендации, какой сериал посмотреть, переводить тексты или играть в шахматы.

Фото: Mohamed Abd El Ghany / Reuters

Технология — это не замена человека, а его помощник, призванный делать жизнь лучше. Например, искусственный интеллект активно используют в медицине: исследователи создают нейросети, способные предсказывать серьезные заболевания, прогнозировать риски и искать новые лекарства. ИИ также применяют при диагностике, однако опасаться, что машина будет неправильно лечить человека, не стоит: решения принимает врач, а не компьютер. При создании таких технологий много внимания уделяется этическому аспекту. При проектировании ученые всегда ориентируются на то, что технологии существуют для людей, а не наоборот.

Не менее важным для будущего искусственного интеллекта является правовой аспект. Принципы, которым должны следовать ученые при развитии этой технологии, были сформулированы в 2017 году на конференции в американском городе Азиломар. Под ними подписались более 3,5 тысячи ученых, в том числе Стивен Хокинг. Свои подписи поставили и представители Google, Apple, Facebook, IBM, Microsoft и Илон Маск. Первым азиломарским принципом стало то, что цель исследований в области интеллектуальных систем должна заключаться в создании не «бесцельного разума», а систем, способных принести человеку пользу.

Материалы по теме

00:04 — 11 июля 2020

00:03 — 29 июля 2020

Исследователи также согласились с тем, что между разработчиками искусственного интеллекта и правительством необходим диалог. Как модифицировать правовую систему, чтобы учесть все правовые риски, связанные с использованием интеллектуальных систем — этот вопрос пока остался открытым. Однако то, что он поднимался, говорит о назревшей необходимости менять законодательства разных стран с учетом того, как технологии изменили и продолжают менять мир.

Особенно очевидно это стало во время пандемии коронавируса, когда многие страны ввели строгие карантинные меры. Огромное количество людей стало работать и учиться прямо из дома — можно сказать, что грань между реальностью и виртуальностью стерлась окончательно. Тогда же стало ясно, что нормы закона и этики не могут быть разными для онлайна и офлайна — разделить эти две части жизни сегодня невозможно.

О технологии искусственного интеллекта знают около 75 процентов россиян, однако лишь 29 процентов из них понимают ее суть — об этом свидетельствуют данные опроса ВЦИОМ, проведенного в конце 2019 года.

Большинство респондентов отметили, что относятся к внедрению этой технологии положительно или нейтрально. Более половины участников исследований согласились использовать ИИ для получения госуслуг, для решения различных бытовых задач, а также в медицине, образовании и сфере досуга.

12

процентов россиян

негативно относятся к внедрению технологий искусственного интеллекта

Негативно к распространению искусственного интеллекта относится 12 процентов опрошенных. Директор по работе с органами государственной власти ВЦИОМ Кирилл Родин подчеркнул, что с каждым годом их число снижается.

Страх перед ИИ обусловлен опасениями, связанными с утечкой персональных данных, нарушением личного пространства и техническими сбоями. Кроме того, участников опроса заботило то, что предсказать последствия развития технологий пока невозможно.

«С одной стороны — признают неизбежность и необходимость развития искусственного интеллекта как обеспечивающего стратегическое преимущество в технологической революции. С другой — читается настороженность, во многом продиктованная непониманием, как конкретно внедрение технологии повлияет на повседневную жизнь», — прокомментировал результаты опроса Родин.

Об этих же опасностях говорил президент России Владимир Путин, выступая на пленарном заседании 75-й сессии Генеральной ассамблеи ООН. Путин отметил, что пандемия коронавируса стала принципиально новым вызовом, и экспертам еще предстоит оценить масштабы ее последствий. В то же время пандемия «заострила и целый ряд этических, технологических, гуманитарных тем».

Мы должны учиться использовать новые технологии во благо человечеству, найти правильный баланс между стимулами к развитию искусственного интеллекта и оправданными ограничительными мерами, совместными усилиями прийти к согласию в сфере регулирования, которое исключило бы потенциальные угрозы, причем с точки зрения не только военной, технологической безопасности, но и традиций, права, морали человеческого общения

Владимир Путин

В частности, президент подчеркнул, что технологии помогли перестроить систему образования и другие сферы, а также перевести уроки в онлайн. Кроме того, искусственный интеллект часто помогал врачам ставить диагноз и подбирать схему лечения. «Но, как и любые другие инновации, цифровые технологии имеют тенденцию к неуправляемому распространению и так же, как и обычное оружие, могут попасть в руки разного рода радикалов и экстремистов не только в зонах региональных конфликтов, но и во вполне благополучных странах, порождая огромные риски», — отметил Путин.

По его мнению, многие люди опасаются, что технологии поставят под угрозу базовые человеческие права: право на частную жизнь, собственность и безопасность. «Мы должны учиться использовать новые технологии во благо человечеству, найти правильный баланс между стимулами к развитию искусственного интеллекта и оправданными ограничительными мерами, совместными усилиями прийти к согласию в сфере регулирования, которое исключило бы потенциальные угрозы, причем с точки зрения не только военной, технологической безопасности, но и традиций, права, морали человеческого общения», — констатировал президент России.

Ирина Рукавишникова

Первый заместитель председателя комитета Совета Федерации по конституционному законодательству и государственному строительству, член Совета по развитию цифровой экономики при Совете Федерации Ирина Рукавишникова отметила, что угрозы, исходящие от цифрового мира, разнообразны по формам, адресатам и степени опасности. «Одни злоумышленники с помощью вирусов, фальшивых подписных страниц или сайтов и многих других методов стремятся завладеть персональными данными граждан для хищения их денежных средств. Другие — более изощренные — стремятся дестабилизировать работу предприятий и организаций, отраслей и систем жизнеобеспечения, массово ввести население в заблуждение и посеять панику с помощью фейковых новостей», — уточнила Рукавишникова в разговоре с «Лентой.ру».

По ее мнению, противостоять этому можно как минимум на четырех уровнях. «Первый — законодательство. Оно должно оперативно реагировать на все новые возможности и риски, которые несет с собою цифровое пространство. Второй — поддержка и совершенствование отечественных конкурентоспособных продуктов в сферах программного обеспечения, систем сбора, обработки, передачи и хранения данных», — объяснила член Совфеда.

Рукавишникова подчеркнула важность подготовки достаточного количества специалистов по вопросам кибербезопасности, включая узкоотраслевых профессионалов, специализирующихся, к примеру, на медицине или строительстве. Уже сегодня их недостаточно, а в будущем потребность будет только расти. Кроме того, она обратила внимание на повышение уровня цифровой грамотности граждан: «Ведь любое, даже самое совершенное законодательство будет бессильно перед киберугрозами, если пользователи сети будут пренебрегать элементарными требованиями безопасности».

Фото: Paul Hanna / Reuters

«Далеко не все наши соотечественники внимательно следят за тем, что именно, какие сведения и куда они передают, какие согласия подписывают на автомате, к чему это может привести. Любое право, включая возможность бесплатного пользования социальными сетями, видеохостингами, поисковыми системами и так далее, налагает на гражданина и определенные обязанности, в том числе по обеспечению безопасности информации, которую человек сознательно размещает, например, в социальных сетях. Об этом россияне, к сожалению, часто забывают», — констатировала Рукавишникова.

О важности учитывать этические вопросы при создании искусственного интеллекта говорят и эксперты индустрии. По словам советника по стратегии и развитию в Common Fund for Commodities Андрея Кулешова, технология, не соответствующая этическим критериям, принятым в обществе, вероятно, столкнется с долгим и проблемным процессом внедрения, невзирая на любой позитивный потенциал. С этой точки зрения открытое и прозрачное соблюдение этических принципов всеми участниками производства и внедрения систем ИИ может здорово упростить процесс принятия технологий обществом.

Андрей Кулешов

«С другой стороны, инновационные технологии, такие как ИИ, часто вынуждены работать в «серой» зоне неясной ответственности за непредвиденные негативные последствия. ИИ как масштабируемая технология может столкнуться не только с неопределенной ответственностью, но и с неопределенным ее масштабом, что, конечно, не способствует уверенности при внедрении инноваций», — подчеркнул Кулешов и добавил, что соблюдение вопросов этики, по сути, необходимо как условие рационального, взаимоприемлемого баланса между интересами корпораций, ученых, разработчиков, общества, человека, государства.

Изучением того, как можно снизить существующие риски, сегодня занимаются и в Международной организации по стандартизации, в ЮНЕСКО, Совете Европы и ОБСЕ.

Общими подходами для разработчиков Кулешов назвал принципы предосторожности, информированного согласия и ненаделения искусственного интеллекта собственной субъектностью. «Этику должна соблюдать не система (железка не имеет своей этики), а люди, которые за ней стоят», — уточнил специалист. По его словам, кодифицировать общие принципы помогает опыт других профессий с этической нагрузкой — например, медицины и финансов. Он подсказывает, что ИИ должен действовать в интересах развития общества, соблюдать закон, интересы общества и граждан, действовать ответственно и добросовестно, проявлять профессионализм и компетентность, а также укреплять доверие к технологиям и рынкам.

Искусственное сознание. Самая большая тайна разума. Что такое сознание, и как это работает

Искусственное сознание

В наши дни всё чаще обсуждаются проблемы появления искусственного разума и проблемы возможных взаимоотношений с таким разумом в плане их гуманизации. Однако, в широком смысле, искусственный разум, отличный от интеллекта homo sapiens, давно существует.

Это разум других структурных уровней, чем структурный уровень интеллекта одного отдельного человека. Например, если взять любое юридическое лицо, то оно имеет коллективный разум. Причём, что самое интересное, оно, как и отдельное физическое лицо, наделено определёнными юридическими правами в социуме. Оно самостоятельный субъект: без рук, без ног, но лицо имеет. Однако, большинство людей не замечает этого. Бытует мнение, что такие субъекты – это как бы формальные образования. Но ведь и индивидуальный интеллект отдельно взятого человека – это «формальный» комплекс нейронов и мыслей, куча на планомене.

Люди переоценивают свою индивидуальность по причине акцентированности внимания на аспектах вины и ответственности (подразумевается личность отдельного человека). Человек с целостным самосознанием не только уверен в целостности своего Я, но и уверен в исключительности уровня личности в социальных структурах. Особенно если это касается какого-то руководителя или политика (пресловутая роль личности в истории). Очень редко вспоминают понятие «волюнтаризм». Все уровни, однако, равнозначны в системном смысле.


Современное законодательство действительно предусматривает обязательное наличие в любой организации руководителя (который лично подписывает все документы). Однако руководитель – это не организация. Руководителя можно поменять, а система останется тем же самым самостоятельным субъектом.

Организации являются комплексными технико-биологическими системами. Их техническая вооружённость всё более возрастает. Сейчас большинство организаций имеют компьютеры, сети и включены в интернет. Работать без компьютерных программ невозможно. Известны случаи банкротства организаций из-за проблем в компьютерных сетях. По мере развития компьютерных сетей всё чаще будет появляться вопрос: а кто определяет работу организации, люди или компьютеры? С развитием системы электронных подписей руководитель станет формальным «стрелочником», ответственным за организацию в данный период (в период действия его сертификата электронной подписи), а фактически организация будет управляться системой программ и серверов, невидимой для посторонних глаз. Такая система самостоятельна и самодостаточна.

Таким образом, страшные сценарии порабощения людей роботами, могут оказаться совсем незаметными и не страшными. Страшилки будущего не страшнее нынешнего положения вещей. А разве сейчас личность отдельного человека не находится в «рабстве» у всевозможных организаций и систем?

Вероятно, будет происходить то, что современные двухуровневые системы «организация ? человек и технические устройства» будут замещаться системами «организация ? технические устройства». Если компьютерные системы станут разумными, а манипуляторы и механизмы достаточно гибкими для самообслуживания таких систем, то человек фактически в системе не нужен. Особенно это касается космических систем будущего, потому что космос – среда для постоянного пребывания человека не очень благоприятная. Другими словами роботы не будут порабощать людей. Они просто постепенно будут дополнять и подменять человека, и займут его место в том смысле, что к ним незаметно перейдёт роль «царя природы». Человек как биологический вид в цивилизации будущего утратит свою уникальность и незаменимость.

А может ли цивилизация вообще обойтись без homo sapiens? Что является критерием такой возможности? Эволюционное развитие цивилизации подобно развитию отдельного человека. Когда человек рождается, он не способен к самообслуживанию. Когда ребёнок подрастает, важнейшим этапом его развития становится обучение самообслуживанию, начиная с обучения ходить на горшок. Когда человек старится, он может потерять способность к самообслуживанию. Цивилизация тоже должна сама себя обслуживать, что бы она могла существовать. Сейчас она обслуживается руками и мозгами homo sapiens. Чтобы он был совсем не нужен, роботы должны делать абсолютно всё! И мести тротуары, и выполнять любые технологические работы, и самовоспроизводиться, и создавать новые проекты, и ставить цели, и управлять организациями, и писать философские трактаты…

Хотелось бы думать, что homo sapiens не исчезнет совсем, учитывая, что сокращение численности населения Земли в будущем демографы уже предсказывают исходя из других факторов развития. Я могу успокоить себя и вас тем, что философская логика подсказывает, что каждая следующая, новая модель или система всегда в силу принципа дополнительности и вектора моделирования («стрелы моделирования») существует не вместо предыдущей, а вместе с предыдущей.

В будущем появятся роботы-андроиды, то есть роботы, имитирующие человека. У них будет механическое тело, похожее на тело человека, разум и сознание. Искусственный интеллект (ИИ), чтобы он был подобен интеллекту человека, должен иметь сознание и эмоции. Таким интеллектом может быть только интроспективный искусственный интеллект (ИИИ). Придётся решать политические и правовые проблемы связанных с жизнью таких роботов: если у робота есть сознание, то он должен быть признан личностью и субъектом права наравне с человеком.

Неизбежное развитие технологий приведёт к появлению людей с техническими имплантантами. А если человеку заменить мозг на электронный, будет ли он этим же самым человеком, или это уже другой человек, или, может быть, кто-то откажется признавать его как человека?

Здесь речь шла в основном о разуме homo sapiens – биологическом эмоциональном разуме, неотделимом от тела. Но компьютерный разум может быть бестелесным. Ему достаточно программных, виртуальных «муляжей» тела, точнее «телесных» эмоций, чтобы в нём могло быть сознание, подобное человеческому. Более того, искусственный разум может существовать не только как локальная компьютерная программа, но также как интеллект, распределённый в компьютерных сетях: «мозг в облаке».

Апрель-июнь 2015 – 2-я редакция

(Май 2012, первоначальный вариант)







Данный текст является ознакомительным фрагментом.




Продолжение на ЛитРес








Восемь вопросов к искусственному интеллекту

Словосочетания «нейронные сети», «машинное обучение», «искусственный интеллект» звучат все чаще и чаще. Их произносят Владимир Путин и Максим Кац. Профессию специалиста по анализу данных называют одной из самых востребованных сейчас и в ближайшем будущем. Но вокруг темы искусственного интеллекта существует большое количество мифов и заблуждений. Ответы на наиболее популярные вопросы об искусственном интеллекте (ИИ) VTimes дает Дмитрий Ветров, профессор-исследователь НИУ ВШЭ.

Грозит ли нам восстание машин под предводительством ИИ?

Это одно из самых больших и вредных заблуждений. Технологии ИИ предназначены для решения конкретных интеллектуальных задач. Для каждой задачи используется отдельная модель. Стратегическая цель — создание так называемого сильного ИИ: универсальной обучаемой системы, способной постоянно учиться решать все новые и новые разнообразные типы задач, но не забывающей, как решать старые задачи.

Такая система будет в состоянии пройти тест Тьюринга, то есть при общении с ней человек не сможет отличить, говорит он с компьютером или с человеком. (Пока это за пределами технологических возможностей.) Можно предположить, что с внедрением квантовых компьютеров удастся подступиться к созданию сильного ИИ. Но даже когда он будет создан, это будет всего лишь помощник (или, если угодно, раб) человека, не способный к самостоятельному целеполаганию. Для последнего необходим не искусственный интеллект, а искусственное сознание, когда система осознает себя как мыслящее существо и у нее могут появиться стремления к самосохранению и самовоспроизводству. Ничего даже близко похожего на искусственное сознание мы не наблюдаем, и вряд ли нам это грозит в обозримой перспективе. Чтобы понять, почему это так, необходимо разобраться, что же на самом деле происходит при обучении компьютера.

Что такое технологии ИИ?

С момента появления первых компьютеров они рассматривались как программируемые вычислительные устройства, способные выполнять миллиарды простых арифметических и логических операций по заранее заданному алгоритму. Это позволило решить большое количество важных задач, в первую очередь связанных с расчетами в сложных математических моделях различных процессов, которые описывались дифференциальными уравнениями.

По сути, компьютер использовался для задач, алгоритм решения которых был известен человеку. И только в последние годы человечество стало осознавать, что компьютер способен на много большее — он может находить способ решать задачи, для которых алгоритма решения нет или он не известен человеку. Это стало возможным благодаря развитию технологий машинного обучения, которые сейчас все чаще называют искусственным интеллектом

Несколько упрощая, процесс обучения выглядит следующим образом. Имеется большое число однотипных задач, в которых известно условие и известен правильный ответ или один из возможных ответов. Примером может быть задача машинного перевода, в которой условием является фраза на одном языке, а ответом — ее перевод на другой язык. Модель машинного обучения, например глубинная нейронная сеть, работает по принципу черного ящика, который принимает на вход условие задачи и выдает сигнал в пространстве ответов. Применительно к машинному переводу это будет произвольный текст на втором языке. У черного ящика есть дополнительные параметры. Их значения определяют, как входной сигнал будет преобразовываться в выходной. Процесс обучения черного ящика заключается в поиске таких значений параметров, при котором для заданных входов он выдает сигнал, близкий к желаемым выходам. Настроив параметры так, что для всех задач с известным ответом черный ящик выдает желаемые ответы или близкие к ним, можно рассчитывать, что и для новых задач того же типа черный ящик будет выдавать разумные ответы. Разумеется, в общем случае гарантировать этого нельзя, но для многих популярных моделей машинного обучения действительно удается настроить модель так, что она успешно справляется с решением новых задач того же типа, ответов на которые модель не видела в ходе своего обучения. Из этого примера становится понятно, что существует несколько принципиальных ограничений для технологии машинного обучения. Во-первых, черный ящик должен быть достаточно гибким, что напрямую зависит от числа настраиваемых в ходе обучения параметров. Современные модели включают в себя десятки миллионов параметров, сложным образом определяющих, как входы преобразуются в выходы. Во-вторых, итоговое качество напрямую зависит от числа задач, которые демонстрировались модели в ходе обучения. Поэтому наилучшие результаты ИИ демонстрирует в тех областях, в которых удается накопить огромные объемы данных с миллиардами однотипных задач. В-третьих, ответы задачи должны объективно зависеть от условий. Методы машинного обучения бессмысленно применять, если между входами и выходами нет никакой семантической связи.

В каких сферах ИИ применяется уже сейчас?

Одним из удивительных результатов последних лет стало осознание того, что модели ИИ можно использовать для очень широкого спектра задач, для которых еще 20 лет назад считалось, что они не могут быть решены с помощью компьютера и способность к их решению является атрибутом высшей нервной деятельности. Например, ИИ способен рисовать картины, поддерживать беседу, управлять автомобилем и многое другое. Уже сейчас ИИ активно применяется в системах распознавания печатных и рукописных текстов, распознавании и синтезе речи, интернет-поиске, рекомендательных системах. Из последних достижений можно отметить решение задачи прогноза третичной структуры белков, которая являлась одной из сложнейших и важнейших задач в биологии и которая была решена специалистами компании DeepMind осенью 2020 г.

Не начнется ли деградация людей, если мы научим компьютер думать за нас?

Людям всегда будет, о чем задуматься.

Технологии ИИ — это всего лишь инструменты, заточенные под решение конкретных (пусть и весьма сложных) задач

Подобно тому, как люди физически не ослабли после появления станков и машин, способных заменить человека в физическом труде, появление технологий, способных решить за нас часть когнитивных задач, не приведет к тому, что люди станут меньше работать головой. Просто они начнут делать это для удовольствия, а не для того, что прокормить себя. Наконец, вопросы этики и морали, смысла жизни точно останутся прерогативой человека.

Каковы социальные последствия массового внедрения технологий ИИ?

Не будет преувеличением сказать, что повсеместное внедрение технологий ИИ приведет к серьезным изменениям в стиле и уровне жизни людей. Такие же драматические изменения происходили при повсеместном внедрении паровой машины, развитии электроэнергетики, распространении автомобилей. Человечество перейдет от массового производства одинаковых товаров и услуг к персонифицированным сервисам, многие отрасли народного хозяйства, которые невозможно сейчас представить без людей, будут полностью или частично автоматизированы. В течение пары десятилетий уйдут в прошлое профессии оператора колл-центра, водителя, синхронного переводчика, пилота самолета и др. У большинства людей появятся виртуальные или роботизированные персональные помощники, которые будут помогать в домашнем хозяйстве, следить за состоянием здоровья, планировать досуг. Конечно, часть нынешних профессий отомрет, но бояться этого не надо. Человечество многократно проходило через эпохи технологических трансформаций. На смену отмирающим профессиям придут другие, в которых люди смогут лучше себя реализовать, например киберспорт, стриминг, видеоблогерство и др.

Врач датчан рассказал, как реанимировали потерявшего сознание Эриксена

https://euro2020.ria.ru/20210613/eriksen-1736813367.html

Врач датчан рассказал, как реанимировали потерявшего сознание Эриксена

Врач датчан рассказал, как реанимировали потерявшего сознание Эриксена — РИА Новости, 13.06.2021

Врач датчан рассказал, как реанимировали потерявшего сознание Эриксена

Врач сборной Дании по футболу Мортен Боэсен рассказал, как оказывалась первая помощь Кристиану Эриксен, который в самой концовке первого тайма матча с… РИА Новости, 13.06.2021

2021-06-13T02:03

2021-06-13T02:03

2021-06-13T11:05

футбол

евро-2020

дания

кристиан эриксен

/html/head/meta[@name=’og:title’]/@content

/html/head/meta[@name=’og:description’]/@content

https://cdnn21.img.ria.ru/images/07e5/06/0c/1736796869_0:179:2023:1317_1920x0_80_0_0_3a2f79cb0ee8c20c7f63087c792f7718.jpg

ЕВРО-2020. Врач сборной Дании по футболу Мортен Боэсен рассказал, как оказывалась первая помощь Кристиану Эриксен, который в самой концовке первого тайма матча с Финляндией потерял сознание и рухнул на поле.Прерванная на несколько часов матч группы В, где также выступают россияне, прошла в субботу в Копенгагене и завершилась со счетом 1:0 в пользу Финляндии.

https://euro2020.ria.ru/20210612/eriksen-1736804609.html

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

2021

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

Новости

ru-RU

https://euro2020.ria.ru/docs/about/copyright.html

https://xn--c1acbl2abdlkab1og.xn--p1ai/

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

https://cdnn21.img.ria.ru/images/07e5/06/0c/1736796869_112:0:1868:1317_1920x0_80_0_0_dc6c09569e2b63d5b6d97ee276260214.jpg

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

РИА Новости

[email protected]

7 495 645-6601

ФГУП МИА «Россия сегодня»

https://xn--c1acbl2abdlkab1og.xn--p1ai/awards/

евро-2020, дания, кристиан эриксен

Искусственное сознание невозможно | Дэвид Хсинг

Следующие отрывки представляют собой ответы на определенные категории контраргументов против моей диссертации. Обратите внимание, что эти ответы не являются самостоятельными и могут рассматриваться только как подтверждающие мои основные аргументы, приведенные выше. Каждый ответ относится только к тем, кто придерживается соответствующих возражений.

Из заключения следует, что работа за пределами синтаксиса требует значения, полученного из сознательного опыта. Это может сделать аргумент круговым (исходя из того, что он пытается доказать), когда сознательный опыт упоминался в самом начале аргумента как определяющий компонент значения.

Однако исходное суждение, определяющее значение («Значение — это ментальная связь с сознательным опытом»), не было признано достоверным в результате заключения или чего-либо, следующего за заключением; это было наблюдение, независимое от заключения.

Возможно отображение корреляции футбольных результатов с фондовым рынком. Фото Максима Хопмана на Unsplash

Многие возражения приходят в той или иной форме функционализма. То есть все они что-то соответствуют одной или нескольким из этих строк:

· Если мы знаем, что делает нейрон, то мы знаем, что делает мозг.

· Если мы можем скопировать мозг или воспроизвести совокупность нейронов, тогда мы сможем создать искусственное сознание

· Если мы сможем скопировать функции мозга, мы сможем создать искусственное сознание

Никакие аргументы функционалистов здесь не работают, потому что дублировать для любой функции должны быть способы обеспечения того, чтобы все функции и их зависимости были видимыми и измеримыми. Нет никакого «копирования» чего-то недоопределенного. Функционалистские презумпции «если мы знаем / можем ли мы копировать» неверны.

Недоопределение влечет за собой невозможность такого исчерпывающего моделирования мозга, как объясняет следующий отрывок из SEP (выделено мной) [14]:

«… когда небесная механика Ньютона не смогла правильно предсказать орбиту Урана, ученые в время не просто отказалось от теории, но и защитило ее от опровержения …

«… Эта стратегия принесла плоды, несмотря на ложность теории Ньютона …

» … перигелий на орбите Меркурия, постулируя существование «Вулкана», дополнительной планеты…

«… Дюгем был прав, предполагая, что не только гипотезы должны проверяться как группа или совокупность, но и что ни в коем случае не является предрешенный вывод, какой член такой коллекции должен быть оставлен или пересмотрен в ответ на неудачный эмпирический тест или ложное заключение.

Короче говоря, у нас нет никаких гарантий, что мы сможем спроектировать что-нибудь« подобное X », когда мы вообще не можем иметь полное представление об этом X. Не может быть никаких гарантий полной модели из-за недоопределенности. Аргументы функционалистов терпят неудачу, потому что корреляции в выводах не подразумевают причинно-следственную связь, и эти корреляции должны быть обнаружены на 100%, чтобы иметь исчерпывающую модель. Есть несколько теоретических возражений против позиции функционалиста, даже если не смотреть на реальные эксперименты, такие как этот:

Повторные стимуляции идентичных групп нейронов в мозгу мухи дают случайные результаты.Это физически демонстрирует недодетерминированность [15]:

«… некоторые группы нейронов могут вызывать множественное поведение у животных или иногда даже у одного животного.

Стимуляция одной группы нейронов у разных животных иногда приводила к разному поведению. Эта разница может быть связана с рядом вещей, говорит Златич: «Это может быть предыдущий опыт; это могут быть различия в развитии; это может быть как-то личность животных; различные состояния, в которых находятся животные во время активации нейронов.«

Стимуляция одних и тех же нейронов у одного животного иногда приводит к разному поведению, как выяснила команда».

В процитированном выше отрывке обратите внимание на все случаи употребления фраз «может быть» и «может быть». Они указывают на наличие недоопределенных факторов в работе. Исчерпывающее моделирование невозможно, когда есть несколько возможных объяснений на основе случайных экспериментальных результатов.

Да, это так, потому что нет никакой гарантии, что сознание произведено иначе.Множество функций и моделей поведения может быть произведено без введения сознания; Нет реальных измеримых внешних индикаторов успеха. См. Раздел «Возражения бихевиориста» ниже.

Десять пальцев наружу. Должно быть, думаешь о числе десять? Фото Луиса Кинтеро на Unsplash

Эти контраргументы обычно говорят о том, что если мы можем воспроизвести сознательное поведение, значит, мы породили сознание. Например, я полностью не согласен со статьей в Scientific American, в которой утверждается, что существует тест на обнаружение сознания в машинах [16].

Наблюдаемое поведение ничего не значит, как уже было продемонстрировано в исходном аргументе «Китайская комната». Китайская комната понимает только китайский язык. Об этом свидетельствует и тот факт, что машинное обучение не приравнивается к реальному обучению.

Является ли он более сознательным, чем дождевой червь, менее или совсем не? Фото Теренса Берка на Unsplash

Контрпримеры эмерджентизма сложности включают количество транзисторов в телефонном процессоре по сравнению с количеством нейронов в мозгу плодовой мушки.Почему смартфон не сознательнее плодовой мушки? А как насчет суперкомпьютеров, в которых транзисторов в миллионы раз больше? Как насчет космических стартовых систем, которые по сравнению с ними еще сложнее… сознательны ли они? Сознание не возникает из-за сложности.

Клонированная овца — это не ИИ. Фото Бенджамина Сандера Бергума на Unsplash

. Если задействованы живые существа, то это уже не искусственное сознание. Это были бы случаи манипулирования врожденным сознанием, а не создание искусственного сознания.

Подложка не имеет отношения к проблеме. Все системы с искусственным интеллектом требуют алгоритма и кода. Все так или иначе подвержены программированию. Неважно, как далеко вы зайдете в будущее или какой субстрат используете; сохраняется фундаментальная синтаксическая природа машинного кода. Назовите хотя бы один проект искусственного интеллекта, который вообще не связан с кодом. Назовите один из способов, при помощи которого ИИ может нарушить принцип непротиворечивости и овладеть программированием без программирования (см. Раздел «Комнаты для воли» выше.)

ДНК — это не программный код. Генетический состав влияет только на поведение, но не определяет его. ДНК тоже не работает как машинный код. Секвенирование ДНК несет в себе инструкции для широкого диапазона ролей, таких как рост и размножение, в то время как функциональные возможности машинного кода сравнительно ограничены. Наблюдения показывают, что каждый ген влияет на каждый сложный признак в степени, которая точно не известна [17]. Это показывает, что их работа недоопределена, в то время как программный код, напротив, определен функционально (программисты не могут спроектировать поведение, адаптивное или «эволюционное», не зная, что должен делать программный код.См. Раздел, посвященный «комнатам воли») и сильно разделены для сравнения (покажите мне большую программу, в которой каждая отдельная строка кода влияет на ВСЕ поведение). Параллель с программированием ДНК — плохая аналогия, не выдерживающая научных наблюдений.

То, что наш разум может иметь дело с символами, не означает, что он действует символически. Мы можем переживать и вспоминать вещи, для которых мы еще не сформулировали правильные описания [18]. Другими словами, мы можем получить неописуемые переживания.Мы начинаем с несимволических переживаний, а затем придумываем для них символические представления в наших попытках рационально организовать и передать эти переживания.

Личный анекдотический пример: Моим самым ранним детским воспоминанием было то, как я лежал на кровати и смотрел на вытяжной вентилятор в окне. Я помню то, что видел тогда, хотя в то время я был слишком молод, чтобы выучить такие слова и термины, как «кровать», «окно», «вентилятор», «электрический вентилятор» или «вытяжной вентилятор с электрическим стеклоподъемником». Сенсорные и эмоциональные воспоминания можно описать символами, но сами воспоминания не являются символическими.

Более того, медицинский феномен афантазии демонстрирует, что визуальные переживания категорически отделены от их описаний [19].

Случайность — отвлекающий маневр, когда дело доходит до использования в качестве индикатора сознания (не говоря уже о сомнительной природе всех внешних индикаторов, как показывает Аргумент Китайской комнаты). Генератор случайных чисел внутри машины будет просто предоставлять еще один ввод, в конечном счете, только для генерации большего количества символов, которыми нужно манипулировать.

Существование сложных функциональных моделей никоим образом не помогает функционалистам избежать ловушки функционализма. Эти модели все еще сильно недоопределены, как показывает недавний пример усовершенствованного алгоритма нейронного обучения [20].

Модель очень сложна, но обратите внимание, насколько сильно она содержит недоопределенного коушинга:

«возможно другой порог»

»может иметь общий рефрактерный период«

», вероятно, будет получен экспериментальный ответ»

Модели далеки от отражения функционирующих нейронных групп, присутствующих в живом мозге; Я очень сомневаюсь, что какой-либо исследователь выдвинет такое заявление, потому что это не их цель.Модели могут и действительно производят полезные функции и являются практически «правильными», даже если эти модели на самом деле «ошибочны» в том смысле, что они не обязательно соответствуют действительности в функционировании. Другими словами, модели не должны на 100% соответствовать реальности, чтобы они работали, поэтому их фактическая точность никогда не гарантируется. Например, орбитальные спутники могут по-прежнему функционировать без учета релятивистских эффектов, потому что большинство релятивистских эффектов слишком малы, чтобы быть значимыми в спутниковой навигации [21].

Фото Зигмунда на Unsplash

Применимо к любой машине. Это относится и к катапультам. Программирование катапульты включает в себя настройку точек поворота, натяжения и противовесов. Язык программирования катапульты определяется позиционированием осей, величиной натяжения, величиной противовеса и т. Д. Вы даже можете построить компьютер из водопроводных труб, если хотите [22]; Применяется тот же принцип. Машина «делает что-то сама по себе» не больше, чем катапульта летает сама по себе.

Чтобы воспользоваться этой возможностью для критики, нужно было бы продемонстрировать предполагаемое злоупотребление в рассуждениях, которыми я предположительно занимаюсь. Эйнштейн также использовал «народные» концепции в своих мысленных экспериментах относительно систем отсчета [23], поэтому мысленные эксперименты дискредитируются. массово здесь или только мое? Это неспособность выразить четкую критику, и расплывчатый ответ «мысленными экспериментами можно злоупотреблять» непродуктивен. Неужели люди думают, что моя аналогия даже хуже, чем их устаревшая уловка, состоящая в том, чтобы представить разум как аналог преобладающей технологии сегодняшнего дня — сначала гидравлику, затем телефоны, затем электрические поля, а теперь и компьютеры [24]? Станут ли люди лучше, если они проведут мой эксперимент с узорными учетными карточками, которые они могут держать в руках? Критика должна быть конкретной.

Аргументы за или против возможности искусственного сознания не дают большого количества попыток понять действительную природу сознания, но это не умаляет тезиса, потому что цель здесь не в том, чтобы явно определить природу сознания. . «Что такое сознание» (например, его природа) не исследуется здесь в такой степени, как «что сознание не влечет за собой», что все еще может быть определено с помощью его требований. Существовали теории, окружающие различный «сознательный потенциал» различных физических материалов, но эти теории в значительной степени оказались бессмысленными [25].Объясняющие теории не нужны для моего тезиса и не нужны для его доказательства или опровержения. Необходимые фундаментальные принципы уже были предоставлены (см. Раздел «Требования сознания».)

(Тема, популярная в СА в последние годы [26])

Я не подписываюсь на панпсихизм, но даже если панпсихизм есть правда, возможное впоследствии утверждение, что «все сознательно», все еще ложно, потому что оно совершает ошибку разделения. Существует различие в природе от всего до каждой вещи.Предполагаемое универсальное сознание панпсихизма, если оно существует, не было бы того же вида, что и обычное сознание живых существ.

Примеры таких категориальных различий: Джонни поет, а его почки — нет. Джонни видит, но ногти на ногах нет. Сказать, что лампа является сознательной в одном смысле слова просто потому, что она принадлежит к вселенной, которая «сознательна» в другом, было бы совершением такой же большой категориальной ошибки, как сказать, что почка поет или ноготь на ноге видит.

Утверждение, что все вещи сознательны (включая ИИ) в результате универсального сознания, будет объединять две категории просто из-за отсутствия разделяющих их терминов. Тот факт, что термин «сознание» связывает все сущее с приверженцами универсального сознания, не означает, что сам термин следует использовать двусмысленно. Философ-панпсихист Дэвид Чалмер пишет [27]:

«Панпсихизм, взятый буквально, — это доктрина, согласно которой все имеет разум. На практике люди, называющие себя панпсихистами, не придерживаются столь сильной доктрины.Они не придерживаются тезиса о том, что у числа два есть разум, или что у Эйфелевой башни есть разум, или что у города Канберра есть разум, даже если они верят в существование чисел, башен и городов ».

Утиный автомат. Фото А. Конби на Викимедиа из Интернет-архива, общественное достояние.

Если он выглядит как утка, плавает как утка, крякает как утка, но вы знаете, что утка — это утка с искусственным интеллектом, значит, у вас есть причудливый автомат-утка. «Но подождите, а что, если бы никто не мог сказать?» Тогда это причудливый автомат-утка, который никто не мог отличить от настоящей утки, вероятно, потому что вся его производственная документация была уничтожена, программист умер и не мог никому сказать, что это утка с ИИ … Это все еще не настоящая утка, однако .Такие реплики, как «Тогда мы сможем избавиться от всех свидетельств производства» и другие шутки, которые я считаю цепляющимися за соломинку и интеллектуально нечестными. Если кто-то конструирует функционально совершенную и визуально неотличимую искусственную утку только для того, чтобы доказать, что я ошибаюсь, то это пустая трата усилий; его личность должна быть раскрыта, чтобы точка была «доказана». Тогда откровение подтвердит мою правоту.

«Утиный ответ» — это еще одно возражение бихевиористов, которое лишено смысла аргументом китайской комнаты (см. Раздел «Возражения бихевиористов» выше.)

Вы не уверены, что ваши друзья — сознательные существа? Фото Наассома Азеведо на Unsplash

. Это отрицание опровергает тот же эмпирически не доказываемый факт, что и возражение не-утка-утка, приведенное выше. Мы говорим о метафизических фактах, а не просто о способности или невозможности их получить. При этом отправная точка либо признания, либо скептического отрицания сознания должна начинаться с вопроса «Отрицаю ли я существование моего сознания?» а не «Докажи мне свое.

Нельзя отрицать существование собственного сознания, и было бы абсурдным упражнением подвергать сомнению его у других людей, когда мы признаем себя сознательными. Когда каждый из нас сталкивается с другим человеком, предполагаем ли мы сначала, что мы просто сталкиваемся с факсимиле человека, а затем проверяем, является ли этот человек человеком, прежде чем, наконец, начать думать о сущности как о личности после удовлетворения? Нет, чтобы кто-то не страдает бредовой паранойей.Мы также не хотели бы создавать мир, в котором эта абсурдная паранойя станет возможной (см. Раздел ниже).

Станут ли машины когда-нибудь осознанными?

Скоро в обозримом будущем станет будущее, в котором мыслительные способности компьютеров приблизятся к нашим собственным. Мы чувствуем, как нам в шею дышат все более мощные алгоритмы машинного обучения (ML). Быстрый прогресс в ближайшие десятилетия приведет к появлению машин с интеллектом человеческого уровня, способных говорить и рассуждать, с несметным вкладом в экономику, политику и, неизбежно, военное искусство.Рождение настоящего искусственного интеллекта глубоко повлияет на будущее человечества, в том числе на то, будет ли оно у него.

В качестве примера можно привести следующие цитаты:

«С тех пор, как в конце 1940-х годов был достигнут последний великий прорыв в области искусственного интеллекта, ученые всего мира искали способы использовать этот« искусственный интеллект »для улучшения технологий, превосходящих возможности даже самых сложных современных программ искусственного интеллекта.”

«Даже сейчас продолжаются исследования, чтобы лучше понять, на что способны новые программы искусственного интеллекта, оставаясь в рамках сегодняшнего интеллекта. Большинство программ ИИ, программируемых в настоящее время, ограничиваются в основном принятием простых решений или выполнением простых операций с относительно небольшими объемами данных ».

Эти два абзаца были написаны GPT-2, языковым ботом, который я пробовал прошлым летом. Разработанный OpenAI, институтом из Сан-Франциско, который продвигает полезный ИИ, GPT-2 представляет собой алгоритм машинного обучения с, казалось бы, идиотской задачей: представленный с произвольным начальным текстом, он должен предсказать следующее слово.Сеть не учат «понимать» прозу в любом человеческом смысле. Вместо этого на этапе обучения он настраивает внутренние связи в своих смоделированных нейронных сетях, чтобы лучше всего предугадывать следующее слово, слово после него и так далее. Обученный на восьми миллионах веб-страниц, его внутренности содержат более миллиарда соединений, которые имитируют синапсы, точки соединения между нейронами. Когда я ввел несколько первых предложений статьи, которую вы читаете, алгоритм выдал два абзаца, которые походили на попытку первокурсника вспомнить суть вводной лекции по машинному обучению, во время которой она мечтала.Результат содержит все правильные слова и фразы — на самом деле неплохо! При повторном вводе того же текста алгоритм предлагает нечто иное.

Потомки таких ботов вызовут волну «дипфейков» обзоров продуктов и новостей, которые усилят миазмы Интернета. Они станут еще одним примером программ, которые делают вещи, которые до сих пор считались исключительно человеческими, — играют в стратегическую игру в реальном времени StarCraft, переводят текст, дают личные рекомендации для книг и фильмов, распознают людей на изображениях и видео.

Потребуется много дальнейших успехов в машинном обучении, прежде чем алгоритм сможет написать шедевр, столь же последовательный, как Марселя Пруста «В поисках утраченного времени» , но код уже не известен. Вспомните, что все первые попытки компьютерных игр, перевода и речи были неуклюжими, и их легко было преуменьшить, потому что им явно не хватало навыков и безупречности. Но с изобретением глубоких нейронных сетей и массивной вычислительной инфраструктуры технологической индустрии компьютеры неуклонно совершенствовались, пока их результаты не перестали казаться смешными.Как мы видели на примере го, шахмат и покера, современные алгоритмы могут превзойти людей, и когда они это сделают, наш первоначальный смех переходит в ужас. Неужели мы похожи на учеников чародея Гете, вызвавших духов-помощников, которых теперь не в силах контролировать?

Искусственное сознание?

Хотя эксперты расходятся во мнениях относительно того, что именно представляет собой интеллект, естественный или иной, большинство согласны с тем, что рано или поздно компьютеры достигнут того, что на жаргоне называется общим искусственным интеллектом (AGI).

Сосредоточение внимания на машинном интеллекте затмевает совершенно другие вопросы: будет ли что-то вроде того, чтобы быть ОИИ? Могут ли программируемые компьютеры когда-либо быть сознательными?

Под «сознанием» или «субъективным чувством» я подразумеваю качество, присущее любому отдельному опыту — например, восхитительный вкус Nutella, острый укус инфицированного зуба, медленное течение времени, когда человеку скучно, или чувство бодрости и беспокойства перед соревнованиями. Обращаясь к философу Томасу Нагелю, мы могли бы сказать, что система сознательна, если есть что-то, что похоже на на на эту систему.

Представьте себе неловкое чувство, возникающее при внезапном осознании того, что вы только что допустили оплошность, что то, что вы имели в виду как шутку, превратилось в оскорбление. Могут ли компьютеры когда-либо испытывать такие бурные эмоции? Когда вы разговариваете по телефону, ждете минуту за минутой, а синтетический голос произносит: «Извините, что заставил вас ждать», действительно ли программа плохо себя чувствует, удерживая вас в аду обслуживания клиентов?

Нет никаких сомнений в том, что наш разум и наш опыт являются неотвратимыми следствиями естественных причинных сил нашего мозга, а не каких-либо сверхъестественных.Эта предпосылка чрезвычайно хорошо служила науке в течение последних нескольких столетий, когда люди исследовали мир. Трехфунтовый, похожий на тофу человеческий мозг — это, безусловно, самый сложный кусок организованной активной материи в известной Вселенной. Но он должен подчиняться тем же физическим законам, что и собаки, деревья и звезды. Ничто не получает бесплатного прохода. Мы еще не до конца понимаем причинные силы мозга, но мы испытываем их каждый день — одна группа нейронов активна, пока вы видите цвета, тогда как клетки, активирующиеся в другом корковом районе, связаны с нахождением в шутливом настроении.Когда эти нейроны стимулируются электродом нейрохирурга, субъект видит цвета или разражается смехом. И наоборот, отключение мозга во время анестезии устраняет эти переживания.

Учитывая эти широко распространенные исходные предположения, что будет означать эволюция настоящего искусственного интеллекта в отношении возможности искусственного сознания?

Размышляя над этим вопросом, мы неизбежно приходим к развилке, ведущей к двум принципиально различным направлениям.Дух времени, воплощенный в романах и фильмах, таких как « Бегущий по лезвию», «Ее » и « Ex Machina », решительно движется по дороге к предположению, что действительно умные машины будут разумными; они будут говорить, рассуждать, самоконтроль и самоанализ. Они сознательны eo ipso .

Этот путь наиболее ярко выражен теорией глобального нейронного рабочего пространства (GNW), одной из доминирующих научных теорий сознания. Теория начинается с мозга и приходит к выводу, что некоторые из его специфических архитектурных особенностей — это то, что рождает сознание.

Его происхождение можно проследить до «архитектуры классной доски» информатики 1970-х годов, когда специализированные программы обращались к общему хранилищу информации, называемому классной доской или центральным рабочим пространством. Психологи предположили, что такой ресурс обработки существует в мозгу и является центральным для человеческого познания. Его емкость невелика, поэтому рабочее пространство одновременно занимает только одно восприятие, мысль или воспоминание. Новая информация конкурирует со старой и вытесняет ее.

Когнитивный нейробиолог Станислас Дехан и молекулярный биолог Жан-Пьер Шенжу из Коллеж де Франс в Париже отобразили эти идеи на архитектуре коры головного мозга, самого внешнего слоя серого вещества.Два сильно сложенных кортикальных листа, один слева и один справа, каждый размером и толщиной 14-дюймовой пиццы, втиснуты в защитный череп. Dehaene и Changeux постулировали, что рабочее пространство создается сетью пирамидных (возбуждающих) нейронов, связанных с удаленными друг от друга кортикальными областями, в частности, с префронтальной, теменно-височной и средней (поясной) ассоциативными областями.

Большая часть мозговой активности остается локализованной и, следовательно, бессознательной — например, активность модуля, контролирующего направление взгляда, о чем мы почти не замечаем, или модуля, регулирующего положение наших тел.Но когда активность в одной или нескольких областях превышает пороговое значение — скажем, когда кому-то показывают изображение банки Nutella — это вызывает воспламенение, волну нервного возбуждения, которая распространяется по рабочему пространству нейронов, всему мозгу. Таким образом, эта сигнализация становится доступной для множества вспомогательных процессов, таких как язык, планирование, схемы вознаграждения, доступ к долговременной памяти и хранение в буфере краткосрочной памяти. Акт глобальной трансляции этой информации — вот что делает ее осознанной.Неповторимый опыт Nutella состоит из пирамидных нейронов, контактирующих с областью планирования двигательной активности мозга, которые дают команду взять ложку, чтобы вычерпать часть пасты из фундука. Тем временем другие модули передают сообщение, что ожидают вознаграждения в виде выброса дофамина, вызванного высоким содержанием жира и сахара в Nutella.

Сознательные состояния возникают из того, как алгоритм рабочего пространства обрабатывает соответствующие сенсорные входы, моторные выходы и внутренние переменные, связанные с памятью, мотивацией и ожиданиями.Глобальная обработка — вот что такое сознание. Теория GNW полностью охватывает современные мифы о почти бесконечных вычислительных мощностях. Сознание — это всего лишь хитрый взлом.

Внутренняя причинная сила

Альтернативный путь — интегрированная теория информации (ИИТ) — использует более фундаментальный подход к объяснению сознания.

Джулио Тонони, психиатр и нейробиолог из Университета Висконсин-Мэдисон, является главным архитектором IIT, и другие, в том числе и я, внесли свой вклад.Теория начинается с опыта, а затем переходит к активации синаптических цепей, которые определяют «ощущение» этого опыта. Интегрированная информация — это математическая мера, определяющая, насколько «внутренней причинной силой» обладает тот или иной механизм. Нейроны, запускающие потенциалы действия, которые влияют на расположенные ниже по потоку клетки, к которым они подключены (через синапсы), являются одним из типов механизмов, как и электронные схемы, состоящие из транзисторов, емкостей, сопротивлений и проводов.

Внутренняя причинная сила — это не какое-то воздушно-сказочное эфирное понятие, но ее можно точно оценить для любой системы.Чем больше его текущее состояние определяет его причину (его вход) и его следствие (его выход), тем большей причинной силой он обладает.

IIT предусматривает, что любой механизм, обладающий внутренней силой, состояние которого отягощено своим прошлым и чревато будущим, является сознательным. Чем больше интегрированной информации системы, представленной греческой буквой Φ (ноль или положительное число, произносимое как «фи»), тем более сознательной является система. Если что-то не имеет внутренней причинной силы, его Φ равно нулю; он ничего не чувствует.

Учитывая неоднородность корковых нейронов и их плотно перекрывающийся набор входных и выходных соединений, объем интегрированной информации в коре огромен. Теория вдохновила на создание измерителя сознания, который в настоящее время проходит клиническую оценку, инструмента, который определяет, находятся ли люди в постоянных вегетативных состояниях или те, кто находится в минимальном сознании, под наркозом или заблокирован, находятся в сознании, но не могут общаться, или «никого нет дома». .«При анализе причинной мощности программируемых цифровых компьютеров на уровне их металлических компонентов — транзисторов, проводов и диодов, которые служат физической основой любых вычислений — теория показывает, что их внутренняя причинная сила и их Φ ничтожны. Кроме того, Φ не зависит от программного обеспечения, запущенного на процессоре, независимо от того, рассчитывает ли он налоги или моделирует работу мозга.

Действительно, теория доказывает, что две сети, которые выполняют одну и ту же операцию ввода-вывода, но имеют по-разному сконфигурированные схемы, могут иметь разное количество Φ.Одна цепь может не иметь Φ, тогда как другая может иметь высокие уровни. Хотя они внешне идентичны, одна сеть испытывает что-то, в то время как ее двойник-зомби-самозванец ничего не чувствует. Разница под капотом, во внутренней разводке сети. Короче говоря, сознание — это примерно , являющееся , а не , делающее .

Разница между этими теориями состоит в том, что GNW подчеркивает функцию человеческого мозга в объяснении сознания, тогда как IIT утверждает, что на самом деле имеют значение внутренние причинные силы мозга.

Различия проявляются, когда мы исследуем коннектом мозга, полную спецификацию точных синаптических проводников всей нервной системы. Анатомы уже нанесли на карту коннектомы нескольких червей. Они работают над коннектомом для плодовой мушки и планируют заняться мышью в течение следующего десятилетия. Предположим, что в будущем можно будет сканировать весь человеческий мозг с его примерно 100 миллиардами нейронов и квадриллионами синапсов на ультраструктурном уровне после смерти его владельца, а затем смоделировать этот орган на каком-нибудь продвинутом компьютере, возможно, квантовом. машина.Если модель достаточно верна, эта симуляция проснется и будет вести себя как цифровой симулякр умершего человека, говоря и получая доступ к его или ее воспоминаниям, желаниям, страхам и другим чертам.

Если имитировать функциональность мозга — это все, что нужно для создания сознания, как постулирует теория GNW, смоделированный человек будет в сознании, перевоплотившись в компьютер. Действительно, загрузка коннектома в облако, чтобы люди могли жить в цифровой загробной жизни, — это распространенный научно-фантастический образ.

IIT предлагает радикально иную интерпретацию этой ситуации: симулякр будет ощущаться так же, как программа, работающая на модном японском туалете — ничего. Он будет действовать как человек, но без каких-либо врожденных чувств, зомби (но без всякого желания есть человеческую плоть) — абсолютный дипфейк.

Чтобы создать сознание, необходимы внутренние причинные силы мозга. И эти силы не могут быть смоделированы, но должны быть неотъемлемой частью физики лежащего в основе механизма.

Чтобы понять, почему симуляция недостаточно хороша, спросите себя, почему она никогда не промокает в погодной симуляции ливня или почему астрофизики могут моделировать огромную гравитационную силу черной дыры, не беспокоясь о том, что они будут поглощены искривлением пространства-времени вокруг своего компьютера. Ответ: потому что симуляция не имеет причинной силы, заставляющей атмосферный пар конденсироваться в воду или заставлять пространство-время искривляться! В принципе, однако, можно было бы достичь сознания человеческого уровня, выйдя за рамки моделирования и построив так называемое нейроморфное оборудование, основанное на архитектуре, построенной по образу нервной системы.

Есть и другие отличия, помимо споров о симуляциях. IIT и GNW предсказывают, что отдельные области коры представляют собой физический субстрат определенных сознательных переживаний с эпицентром в задней или передней части коры. Это и другие прогнозы сейчас проверяются в рамках крупномасштабного сотрудничества с участием шести лабораторий в США, Европе и Китае, которые только что получили 5 миллионов долларов финансирования от Благотворительного фонда Templeton World Charity Foundation.

Могут ли машины стать разумными, имеет значение этические соображения.Если компьютеры воспринимают жизнь своими собственными чувствами, они перестают быть просто средством достижения цели, определяемой их полезностью для нас, людей. Они становятся самоцелью.

Согласно GNW, они превращаются из простых объектов в субъектов — каждый существует как «я» — с определенной точкой зрения. Эта дилемма возникает в наиболее убедительных телесериалах «Черное зеркало » и «Мир Дикого Запада» . Как только когнитивные способности компьютеров станут соперничать с человеческими, их стремление отстаивать юридические и политические права станет непреодолимым — право не быть удаленным, не стирать свои воспоминания, не страдать от боли и деградации.Альтернатива, воплощенная в ИИТ, состоит в том, что компьютеры останутся только сверхсложным механизмом, призрачными пустыми оболочками, лишенными того, что мы ценим больше всего: чувства самой жизни.

что это? — Future of Work Hub

В этой «пояснительной» статье мы смотрим в далекое будущее искусственного интеллекта: искусственное сознание. Что такое искусственное сознание и когда его можно ожидать?

Что такое искусственное сознание?

Искусственное сознание (также известное как машинное сознание или синтетическое сознание) относится к небиологической, созданной человеком машине, которая осознает свое существование.Когда — или если — он будет создан, это глубоко повлияет на наше понимание того, что значит быть «живым».

Но прежде чем обсуждать искусственное сознание, нам нужно изучить то, что у нас есть сейчас: искусственный интеллект.

Что такое искусственный интеллект?

Искусственный интеллект (ИИ) — это широкий термин, который используется для обозначения всего, от базовой автоматизации программного обеспечения до машинного обучения. Искусственный интеллект далек от искусственного сознания.

Один из способов создания искусственного интеллекта с помощью таких технологий, как машинное обучение или нейронные сети; технологии, позволяющие «обучать» компьютеры на основе предоставленной информации с помощью сложных алгоритмов. В результате этого обучения эти машины с искусственным интеллектом могут затем выполнять действия.

Искусственный интеллект быстро развивается и нашел множество применений в самых разных отраслях. От розничной торговли и производства до банковских и финансовых услуг — алгоритмы искусственного интеллекта развертываются для удовлетворения потребностей и желаний людей, а также для улучшения взаимодействия с пользователем, повышения эффективности и безопасности.

Например, в сфере медицинских услуг министр здравоохранения Великобритании Мэтт Хэнкок признал «огромную силу», которую имеет искусственный интеллект для улучшения сектора здравоохранения. Это произошло в контексте объявления правительства о выделении 250 миллионов фунтов стерлингов на новую специальную лабораторию искусственного интеллекта для Национальной службы здравоохранения.

Что такое узкий искусственный интеллект (ANI)

По мере развития искусственного интеллекта расширяется и объем исследований. Искусственный интеллект был разделен на две категории: искусственный узкий интеллект (ANI) и общий искусственный интеллект (AGI) .

Искусственный узкий интеллект широко известен как «слабый ИИ». Узкий искусственный интеллект — это отрасль искусственного интеллекта, распространенная сегодня. Хотя эти «умные» машины сделали значительные открытия и, в некоторых случаях, даже превосходят людей в определенных задачах; они «слабы», потому что действуют разумно только в узких обстоятельствах и при значительных ограничениях.

Искусственный узкий интеллект может научиться очень хорошо выполнять конкретную определенную задачу, но совершенно неспособен выполнять любую другую задачу.Его «интеллект» нельзя применить ни к чему другому.

Другая категория искусственного интеллекта — это общий искусственный интеллект (AGI), или «сильный ИИ». Это следующий этап развития искусственного интеллекта, которого еще предстоит достичь.

Что такое общий искусственный интеллект (AGI)?

По сути, машины AGI могут наблюдать и учиться, но затем могут применять то, чему они научились в одной области, в другой, незнакомой области. Хотя этот интеллект является основным для людей и другой биологической жизни и обнаруживается на ранних стадиях развития, нам еще предстоит создать машину, которая могла бы его имитировать.

Хотя разрыв между человеческим интеллектом и искусственным интеллектом, кажется, быстро сокращается, «требуется нечто большее, чем просто выполнение конкретных задач лучше, чем у людей, чтобы квалифицироваться как общий искусственный интеллект.

Чем отличается искусственное сознание?

Искусственное сознание (AC) — это один шаг за пределы общего искусственного интеллекта и подразумевает нечто большее, чем просто интеллект — оно подразумевает разумность и самосознание. В то время как наши умные кухонные приборы вряд ли выиграют от более высоких уровней сознания, искусственное сознание, возможно, может найти применение в голосовых помощниках или роботах-гуманоидах, которые разработаны с учетом этой интерактивности.

В отличие от интеллекта, который (возможно) можно количественно измерить с помощью IQ; сознание оценить труднее. Проверка того, было ли достигнуто искусственное сознание, будет скорее философским, чем техническим вопросом. Существует множество различных интерпретаций того, что такое сознание, и это влияет на то, когда возможно развитие искусственного сознания.

Некоторые утверждают, что сознание сложное и небинарное; и что машина либо сознательна, либо нет.Другие, такие как Нед Блок, с другой стороны, считают, что сознание — это беспредельная концепция и что существует ряд различных типов сознания.

Аналогичным образом рассуждает Марко Марнелли в пользу «состояний сознания». Объясняя сознание, Маргнелли использует компьютерную аналогию, в которой мозг представляет наше компьютерное оборудование, а состояния сознания представляют его действующие программы.

Когда искусственное сознание может стать реальным?

До сих пор нет конкретных или согласованных сроков, когда искусственное сознание может стать реальностью.Искусственное сознание непредсказуемо, потому что мы еще не понимаем технологических скачков, которые необходимо сделать, чтобы достичь искусственного сознания.

В книге под названием «Архитекторы интеллекта» писатель и футурист Мартин Форд берет интервью у ряда выдающихся людей, работающих в области ИИ, задавая вопрос о том, когда будет хотя бы 50% -ная вероятность общего искусственного интеллекта — даже не искусственного сознания — в процессе постройки. Некоторые, такие как Родни Брукс, соучредитель iRobot, были менее оптимистичны, предлагая 2200.

Гибридное искусственное сознание

Гораздо раньше на горизонте — возможно, уже в 2045 году — мы можем начать видеть гибридное искусственное сознание, по сути, слияние человека и машины.

Футурист Рэй Курцвейл предсказывает, что к этому моменту люди будут гибридом биологического и небиологического интеллекта, в котором все больше будет доминировать небиологический (искусственный) компонент. Курцвейл предполагает, что «ИИ — это не разумное вторжение с Марса.Это расширители мозга, которые мы создали, чтобы расширить свой умственный потенциал. Они часть нашей цивилизации. Они часть того, кто мы есть ».

После того, как будет разработан двусторонний интерфейс «мозг-технология», улучшенные люди, сочетающие в себе лучшее из биологического человеческого интеллекта, вдохновения и эмоций, а также скорости обработки и хранения искусственных технологий, могут начать вносить значительные новые технологические разработки. После этого темпы изменений могут возрасти в геометрической прогрессии.

Таким образом, развитие искусственного сознания может стать постепенным, при этом важность биологического компонента «интеллекта» будет постепенно уменьшаться по мере того, как все более сложные технологии выполняют все больше и больше работы «мысли».

Может ли машина быть сознательной? Что такое «сознание»?

При обсуждении искусственного сознания, похоже, нет единого мнения о том, что на самом деле означает «сознание». До сих пор ведутся споры по поводу его определения, причем как нейробиологами, так и философами выдвигается несколько различных объяснений.Сложность заключается в том, что в отличие от интеллекта сознание включает в себя элемент субъективного опыта. Эта субъективность была названа Дэвидом Чалмерсом «сложной проблемой сознания». Сложная проблема связана с трудностью объяснения того, как субъективные состояния могут возникать из объективных физических систем. Например, субъективный опыт — это увидеть красный цвет или почувствовать боль. Наше восприятие субъективно и включает в себя зрение, обоняние, осязание, эмоции и в целом оказывает несколько биохимических влияний.Мы видим цвета иначе, чем собака, которая видит иначе, чем насекомое, но все мы «живы».

Типы сознания

Хотя о сознании написано множество различных теорий и статей, существует также общее понимание того, что сознание включает как объективный, так и субъективный элемент.

Нед Блок проводит различие между двумя типами сознания: феноменальное сознание и доступ сознание.Первое относится к способности разума рассуждать и направлять поведение; в то время как последнее относится к «опыту» — «каково быть в этом состоянии».

Эта концепция «сознания доступа» может быть тем, что большинство людей имеет в виду при обсуждении искусственного сознания. Возможно, искусственное феноменальное сознание уже могло быть достигнуто: беспилотные автомобили обладают способностью понимать окружающую среду и принимать решения.

Понимание сознания необходимо прежде, чем реализовать искусственное сознание

Одна из трудностей в создании искусственного сознания состоит в том, что для этого нам необходимо иметь четкое понимание того, что такое сознание и как оно возникает в мозгу. — особенно с научной точки зрения.В то время как дебаты в основном обсуждались с философской точки зрения, нейробиология недавно заинтересовалась сознанием и, похоже, решила предложить объяснение того, как оно возникает в физическом смысле.

Мы знаем, что на сознание влияют нейроны, и в его основе лежит биохимическое происхождение. В качестве примера Маргнелли приводит влияние ЛСД на состояние сознания из-за прямого воздействия химического вещества на то, как нейроны общаются. Он утверждает, что исследование воздействия ЛСД на мозг «внезапно обнаружило необычные связи между нейронным оборудованием и ментальным программным обеспечением, таким образом предполагая, что сознание каким-то образом является продуктом активности нейронов и химических отношений, установленных между ними.’

Нейробиология предполагает, что каким бы ни было сознание, оно должно возникать физически через мозг и нервную систему. Идея состоит в том, что если что-то берет свое начало в физике, наука может это воспроизвести. Наука уже воспроизвела человеческое сердце, так почему бы ей не воспроизвести мозг в форме искусственного сознания?

Идентификация искусственного сознания

Философ Ник Бостром сказал, что, учитывая наши проблемы с пониманием «сознания», мы должны принять возможность того, что истинное самосознательное искусственное сознание может возникнуть задолго до того, как машины достигнут интеллекта человеческого уровня (или за его пределами). ).

Бострум предполагает, что человечество могло в будущем невольно причинять страдания искусственному сознанию.

Что значит для машины действовать разумно?

Не существует единого определения интеллекта или одного теста для измерения машинного интеллекта. Как и в случае с сознанием, существует несколько различных интерпретаций. Фактически, Легг и Хаттер подготовили целый отчет, в котором анализировалось более семидесяти различных определений интеллекта, подчеркивая многочисленные интерпретации в зависимости от области и предмета.

Тем не менее, при обсуждении ИИ и искусственного сознания «золотой стандарт» — это человеческие существа и, следовательно, естественный интеллект. Во многом так же, как человеческий интеллект измеряется путем тестирования решения проблем, машина считается интеллектуальной, если она может решать проблемы. Чем сложнее эти проблемы, тем более интеллектуальным можно считать машину.

Если машина может решать конкретные задачи лучше, чем человек, ее можно считать более умной в этой области, но это не означает, что они умны по всем параметрам интеллекта.Возможно, существующее определение интеллекта слишком узкое и требует пересмотра.

Тест Тьюринга

В 1950 году Алан Тьюринг предложил «имитационную игру», теперь известную как «тест Тьюринга», которая проверяет способность машины проявлять разумное поведение. Он основан на представлении о том, что если машина действует таким образом, который неотличим от человека, то она считается разумной. В этой игре оценщик-человек должен выбрать между A и B, который является машиной, а какой — человеком, основываясь исключительно на их ответах.Если оценщик не может правильно отличить человека от машины, машина будет считаться умной.

Машинный интеллект прошел долгий путь с 1950 года, и ученые уже создали роботов, которые превосходят человеческий интеллект — например, в шахматах, интеллектуальном анализе данных, теоремах поиска и других. Таким образом, тест Тьюринга подвергался критике за ограниченную применимость в эту новую эпоху интеллекта.

Аргумент китайской комнаты

В основополагающей статье, впервые опубликованной в 1980 году, философ Джон Сирл выдвинул «один из самых известных аргументов» против сильного ИИ — «аргумент китайской комнаты».В своем аргументе Сирл представляет себя в комнате, где он получает китайские иероглифы, проскользнувшие под дверь. Сирл не знает китайского, но он следит за программой для манипулирования символами и цифрами так же, как компьютер, а затем, исходя из этих инструкций, он отправляет обратно соответствующие китайские иероглифы под дверь. Поскольку он успешно следил за программой, люди по ту сторону двери могли предположить, что на другом конце есть говорящий по-китайски, хотя на самом деле это не так.Точка зрения Серла о том, что искусственный интеллект является и никогда не может быть сильным, заключается в том, что ИИ использует синтаксические правила, но не понимает значения или семантики.

Одинаковы ли человеческий и машинный интеллект?

Машинный интеллект по своей сути отличается от человеческого интеллекта не только из-за различий в аппаратном обеспечении (одно аналоговое, другое — цифровое), но и потому, что машинный интеллект имеет тенденцию быть узкоспециализированным. В статье о машинном сознании Шевлин утверждает, что существует разница между специализированным и общим интеллектом.Он утверждает, что, когда дело доходит до машинного сознания, «имеет значение общий интеллект». Он приводит три критерия, по которым оценивается общий интеллект (и, следовательно, возможность сознания): «надежность», «гибкость» и «целостность системы». интеграция ».

Специализированная интеллектуальная машина — например, тостер, который знает, когда ваши тосты приготовлены так, как вам нравится, — интеллектуальна, если ее измерять таким образом. Но он не может сказать вам погоду на улице, не может завязать шнурки и не может претендовать на роль чего-то другого, кроме умного тостера.

Философия искусственного интеллекта и искусственного сознания

Есть несколько глубоких философских вопросов о том, что значит быть живым и, следовательно, в какой степени это (или могло бы быть) воспроизводимо в технологии.

Может ли машина вызывать эмоции?

Ответить, могут ли машины иметь искусственные эмоции, во многом то же самое, что ответить, могут ли они иметь искусственное сознание. Мы не знаем. Мы еще не знаем, как искусственно создавать эмоции, потому что еще не знаем, как именно они возникают в мозгу.

Были созданы роботы, которые могут имитировать эмоции и могут казаться чтобы испытывать эмоции. Эти «эмоциональные роботы» просто действуют так, как запрограммировано, и находятся в нескольких световых годах от обладания каким-либо интеллектом или искусственным сознанием. В этом исследовании, например, эмоциональные роботы были запрограммированы так, чтобы они выглядели так, как будто у них есть чувства, говоря: «Пожалуйста, не переключайте меня. выкл »и« Боюсь темноты ». Это, в свою очередь, повлияло на то, как люди с ними взаимодействовали.

Однако существует ИИ, который может считывать эмоции у людей.Люди и животные как социальные существа полагаются на эмоции, чтобы взаимодействовать и понимать друг друга. Язык тела, тон и интонация — все это выражает наши чувства и эмоции и обычно происходит спонтанно и автоматически. Способность понимать эти сигналы называется эмоциональным интеллектом и описывается как «критически важная для успеха человеческих взаимодействий». Эти роботы разрабатываются для изучения и интерпретации человеческих эмоций путем интерпретации сигналов по тону, голосу, языку тела, например, мимике.Однако до сих пор нет роботов, которые могли бы воспроизвести это и «почувствовать» эмоции таким же образом.

Возможно, одна из причин, по которой развитие искусственного сознания еще не достигло точки, когда роботы могут чувствовать эмоции, заключается в том, что, похоже, не так много причин, по которым мы хотели бы, чтобы роботы испытывали эмоции. Есть веские аргументы в пользу того, что роботы более эффективны без искусственных эмоций или искусственного сознания — особенно если рассматривать их на рабочем месте, это было бы контрпродуктивно.Если роботы могут «чувствовать» усталость или эмоциональность и отвлекаться от своих основных обязанностей, действительно ли будет какое-то преимущество перед людьми?

Однако есть и другие отрасли, где роботы будут заботиться о пациентах, где искусственное сознание и эмоции могут быть полезны. Сегодня, например, в домах престарелых некоторые ИИ используются для ухода за престарелыми или немощными, и чем более человечными они выглядят, тем больше они могут укреплять «отношения» с теми, о ком заботятся, тем самым улучшая их функции.

Может ли машина быть осведомленной о себе?

Среди множества определений сознания многим ученым было полезно разделить на категории различные уровни или стадии сознания. Некоторые ученые утверждали, что существует три уровня, и что самосознание возникает на третьем уровне «C2» и «обычно называется интроспекцией или тем, что психологи называют« метапознанием ». Нет свидетельств того, что роботы развивают такой уровень сознания или самосознания, и мы, кажется, не близки к этому.

Может машина быть оригинальной или креативной?

Было показано, что искусственный интеллект проявляет изобретательность в различных задачах — от написания песен до рисования и даже чтения рэпа. Однако в этих исследованиях, связанных с машинным обучением, где машины производят контент, который может считаться искусством, трудно спорить с каким-либо убеждением в том, что здесь задействовано творчество. Это потому, что все, что на самом деле делает ИИ, — это экстраполяция набора данных и воспроизведение в пределах заранее определенного количества случайных ошибок.

Может машина быть доброжелательной или враждебной?

Доброжелательность и недоброжелательность во многом связаны с эмоциями. Мы знаем, что на данный момент ИИ не может чувствовать эмоции и по большей части очень предсказуем. Тем не менее, существует много сведений об опасностях ИИ, и существует множество научно-фантастических романов и телесериалов, основанных на идее, что машины с искусственным интеллектом однажды повернутся против нас.

Джеймс Баррат, автор книги «Наше последнее изобретение: искусственный интеллект и конец человеческой эры» предсказывает, что ИИ в будущем не обязательно будет дружелюбным или доброжелательным и фактически может обратиться против людей.Илон Маск также несколько раз упоминал, что, когда искусственный интеллект превзойдет человеческий, мы не сможем его контролировать. Это может быть полезно или вредно, нет никаких способов предсказать такой результат.

Однако способность чувствовать или не может быть причиной враждебности. Маск приводит пример того, что люди, строя дорогу, могут разрушить муравейник не потому, что мы по своей природе злые или не любим муравьев, а потому, что наша цель — построить дорогу. Он утверждает, что машина, например, запрограммированная на решение проблемы, может рассматривать людей и человеческую расу как проблему.Одним из решений может быть уничтожение людей. Мы, люди, конечно, сочли бы это враждебным, но это своего рода враждебность, которая не обязательно связана с эмоциями.

Таким образом, понятие враждебности очень субъективно.

Создание искусственного сознания: можно ли подарить роботу душу?

Ученым уже трудно дать определение сознанию, не говоря уже о «душе», которая по своей сути имеет теологический аспект. Владимир Гавлик, философ из Чешской академии наук, предлагает определять душу как «целостную идентичность», которая выдерживает испытание временем.Если мы под сознанием понимаем душу, то ответ остается тем же: мы не знаем.

Однако некоторые утверждают, что истинное искусственное сознание никогда не будет достигнуто. Это то, что утверждают дуалисты в философии, утверждающие, что существует разница между мозгом и разумом. Один может быть воспроизведен, а другой — нет. Материалисты, с другой стороны, утверждают, что нейробиология способна все объяснить; даже если у него еще нет ответов.

Этика эксплуатации искусственного сознания

Проблема использования слова «сознательный» для описания ОИИ заключается в том, что оно вызывает определенные коннотации человечества. Если бы машины когда-либо считали сознательными, в игру вступил бы ряд этических и, возможно, юридических соображений.

Роботы-рабы

Как упоминалось выше, существует вероятность того, что искусственное сознание может существовать задолго до того, как мы сможем идентифицировать себя, и, как таковое, человечество могло бы по незнанию поработить новую жизнь.

Идея «прав роботов» часто обсуждалась и раньше. Само собой разумеется, что если нам удастся создать сознательную машину, есть веские аргументы в пользу того, чтобы она пользовалась правами и правовой защитой. Люди не мешают людям с более низким IQ пользоваться такой же защитой и правами. Они нравятся всем просто потому, что они люди. Если машины будущего действительно разумны и обладают искусственным сознанием, в какой момент они получат права?

Но если роботы были спроектированы, запрограммированы и созданы для обслуживания людей, идея прав роботов кажется контрпродуктивной.

В статье Джоанны Брайсон она утверждает, что роботов следует считать рабами, потому что они будут слугами, и что было бы неправильно рассматривать их место на нашей планете рядом с человечеством. Брайсон утверждает, что мы действительно владеем роботами, и все в них, от их внешнего вида до интеллекта, прямо или косвенно разработано людьми. Она утверждает, что использование человеческого сочувствия к ИИ может быть потенциально опасным.

Роль искусственного сознания в системах искусственного интеллекта

Нынешнее поколение ИИ изменило мир, в котором мы живем.В последнее десятилетие алгоритмы глубокого обучения позволили системам искусственного интеллекта выполнять задачи распознавания образов, такие как распознавание речи и изображений, не хуже людей. Однако есть общее мнение, что одной этой технологии недостаточно для доставки интеллекта человеческого уровня [1] . Хотя алгоритмы ИИ могут быть более мощными, чем люди, они очень мало понимают, что делают. Некоторые видные исследователи ИИ говорят, что понимание необходимо, потому что даже если программа ИИ может решить проблему так же компетентно, как человек, у них может не быть более широкого контекста, чтобы судить о ценности своего решения.Другими словами, в настоящее время они не способны придавать смысл в человеческом смысле тому, что они делают. Это скорее проблема сознания, чем интеллекта. В этой статье я объясняю роль машинного сознания в улучшении систем искусственного интеллекта.

Человеческий интеллект стал известен как сильный ИИ или общий искусственный интеллект (AGI).

Человеческое сознание

Есть разница между интеллектом и сознанием. Проще говоря, интеллект — это способность решать проблемы.Так, например, если шахматная программа ИИ может победить большинство людей, тогда разумно приписать этой программе ИИ интеллект — поскольку хорошая игра в шахматы задумывается как требующая интеллекта, если в нее играет человек.

Другое дело, когда дело доходит до сознания, потому что очень трудно найти объективное определение, отражающее сущность сознания. Некоторые говорят, что сознание — это состояние, которое мы все чувствуем, когда бодрствуем, а не когда спим, но это не так, потому что сновидение — это состояние сознания.Более того, это слишком узкое определение, потому что оно ничего не говорит о том, что происходит со всеми нами каждую минуту нашей жизни. Все мы знаем по собственному опыту, что такое сознание, но его очень трудно определить. Это напоминает мне то, что сказал джазовый трубач Луи Армстронг, когда его однажды попросили дать определение джазу. Он сказал: «Если ты спросишь, ты никогда не узнаешь». То же самое и с сознанием.

Луи Армстронг сказал, когда его однажды попросили дать определение джазу: «Если захочешь спросить, ты никогда не узнаешь». мы прыгаем в холодный бассейн, или когда мы пробуем ледяную воду в очень жаркий солнечный день, или когда мы чувствуем высоту, когда слышим по радио ту золотую старуху, которую мы почти забыли.Мы можем представить себе множество хороших, плохих и нейтральных переживаний, которые помогают создать реальность сознания. У всех нас есть внутренние субъективные переживания каждый день нашей жизни — философы называют эти переживания квалиа.

Эти переживания квалиа придают смысл нашей жизни, но может ли искусственное сознание когда-либо таким же образом воспринимать значение реальности? Когда мы думаем, например, о лошади, все наши чувства зрения, звука, запаха, осязания и так далее объединяются в нашем сознании, чтобы вызвать воспоминания о лошади.Мы визуализируем четвероногого пушистого зверя, бегающего по полям, издающего ржущие звуки и обладающего характерным запахом. Мы можем визуализировать множество других переживаний, связанных с лошадьми, например, тянуть повозку в конюшне и так далее. Эти сознательные переживания вносят вклад в наше понимание «здравого смысла», которое возникло из нашего сознательного опыта. Существуют системы искусственного интеллекта, такие как CYC, которые могут улавливать эти человеческие знания здравого смысла. CYC знает эти факты и отношения о лошади, но не может приписывать значение и понимание так же, как мы, люди.

Когда мы думаем о лошади, все наши чувства объединяются в нашем сознании, чтобы вызвать воспоминания о лошади

Имеет ли это значение? Да, очень редко, потому что программам ИИ иногда трудно справляться с новыми и неожиданными ситуациями. Например, когда мы ведем машину, мы используем свое гибкое понимание реальности в мире, чтобы справляться с необычными ситуациями, с которыми мы, возможно, никогда не сталкивались раньше — в отличие от программы ИИ, которая будет использовать алгоритмы машинного обучения для принятия решений на основе изученных предыдущих примеров вождения.Большая часть того, что мы делаем за рулем, является рутиной и легко воспроизводится ИИ. Но представьте, что вас поразило землетрясение во время вождения, которое вызвало проседание дороги во время моего путешествия. Мой инстинкт подсознательно подсказывал мне притормозить. Я бы, вероятно, предпринял другие инстинктивные действия, например, избегал бы нахождения на мосту или рядом с ним — поскольку существует вероятность того, что мост обрушится из-за силы тяжести. Знания здравого смысла может быть недостаточно, потому что существует бесконечно много возможных способов, которыми такое событие могло бы разыграться, поэтому его невозможно полностью объяснить.

Что программа AI сделает в такой ситуации? Вы можете подумать, что можно добавить больше изученных случаев в его базу знаний, но как он может это сделать, если такие случаи никогда ранее не встречались? Проблема в том, что программе ИИ придется действовать и рассуждать в неожиданной ситуации. Это может быть крайне редкая ситуация, но она может случиться. Более того, редкие события такого рода становятся все более распространенными. Николас Талеб, математик-статистик, изучил концепцию очень редких событий, называемых событиями «черного лебедя», после мирового банковского кризиса в 2008 году.В своей книге под названием «Черный лебедь [2] » он показывает, как такие редкие события, имеющие катастрофические последствия, неадекватно рационализируются, поскольку такие события становятся все более распространенными. Его книга получила такое название, потому что считалось невозможным наблюдать за черным лебедем — все лебеди считались белыми. Трудно не согласиться с его утверждением. Например, кто мог предвидеть пандемию Covid-19. Событие черного лебедя, если оно вообще было.

Искусственное сознание

Это означает, что программ искусственного интеллекта, обладающих здравым смыслом, может быть недостаточно, чтобы справиться с неожиданными ситуациями, потому что трудно понять пределы здравого смысла.Возможно, искусственное сознание — единственный способ приписать машине смысл. Конечно, искусственное сознание будет отличаться от человеческого. Такие философы, как Декарт, Дэниел Деннет, физик Роджер Пенроуз и многие другие, выдвинули различные теории сознания о том, как мозг производит мышление из нейронной активности. Инструменты нейробиологии, такие как сканеры фМРТ, могут помочь лучше понять, как это происходит, и позволить перейти на новый уровень гуманизации ИИ.Но для этого придется столкнуться с тем, что австралийский философ Дэвид Чалмерс называет сложной проблемой сознания — как субъективность может возникнуть из материи? Другими словами, как субъективные переживания могут возникать в результате активности нейронов в головном мозге? Более того, наше понимание человеческого сознания можно понять только через наш собственный внутренний опыт — взгляд от первого лица. То же самое применимо и к искусственному сознанию. Он будет доступен нам только от третьего лица.Это поднимает вопрос, как мы узнаем, есть ли у машины сознание? Подробнее об этом я расскажу в следующей статье.

Программы искусственного интеллекта, обладающие здравым смыслом, могут оказаться недостаточными для решения непредвиденных ситуаций

Ссылки

[1] Маркус, Г. и Дэвис, Э. Перезагрузка AI. Создание искусственного интеллекта, которому мы можем доверять. Книги Пантеона, 2019.

[2] Талеб Н. Н. Черный лебедь: второе издание, 2010 г.

Как дать роботу душу

Терминатор был написан, чтобы напугать нас; WALL-E был написан, чтобы заставить нас плакать.Роботы не могут делать ужасающие или душераздирающие вещи, которые мы видим в фильмах, но все же остается вопрос: Что, если бы они могли?

Конечно, технология, которая у нас есть сегодня, далеко не достаточно сложна, чтобы сделать что-либо из этого. Но люди продолжают спрашивать. В основе этих дискуссий лежит вопрос: могут ли машины стать сознательными? Могут ли они вообще развить — или быть запрограммированы на то, чтобы содержать — душу? По крайней мере, может ли алгоритм содержать что-то , напоминающее душу?

Ответы на эти вопросы полностью зависят от того, как вы определяете эти вещи.До сих пор мы не нашли удовлетворительных определений за 70 лет, прошедших с тех пор, как искусственный интеллект впервые появился в академической сфере.

Возьмем, к примеру, недавно опубликованную на BBC статью, в которой пытались разобраться с идеей искусственного интеллекта с душой. Авторы определили, что значит иметь бессмертную душу, таким образом, чтобы разговор почти сразу уводился от области теологии. Это, конечно, нормально, поскольку маловероятно, чтобы старый человек в небесах потянулся вниз, чтобы вдохнуть жизнь в Кортану.Но это не отвечает на главный вопрос — может ли искусственный интеллект когда-либо быть чем-то большим, чем бездумным инструментом?

Виктор Тангерманн, Рождение Алексы, Photoshop, 2018

В статье BBC изложены условия — система ИИ, которая действует так, как будто у нее есть душа, будет определяться смотрящим. Для религиозных и духовных людей из нас может показаться, что достаточно продвинутый алгоритм представляет душу. Эти люди могут рассматривать это как таковое, поскольку они будут рассматривать интеллект системы ИИ, эмоциональное выражение, поведение и, возможно, даже веру в бога, как признаки внутреннего чего-то , которое можно определить как душу.

В результате машины, содержащие какой-то искусственный интеллект, могут одновременно рассматриваться как объект или инструмент исследования, в зависимости от того, кого вы спрашиваете. Как и во многих других случаях, большая часть споров о том, что может сделать машину сознательной, сводится к тому, что из себя мы проецируем на алгоритмы.

«Меня меньше интересует программирование компьютеров, чем воспитание маленьких прото-сущностей», — сказала Futurism Нэнси Фулда, компьютерный ученый из Университета Бригама Янга. «Именно открытие закономерностей, появление уникальных моделей поведения впервые привлекло меня к информатике.И это причина того, что я все еще здесь.

Фульда обучила алгоритмы искусственного интеллекта понимать контекстуальный язык и работает над созданием роботизированной теории разума, версии принципа психологии человека (и некоторых животных), которая позволяет нам распознавать других как существ со своими мыслями и намерениями. Но, знаете ли, для роботов.

«Что касается того, может ли компьютер когда-либо содержать в себе божественно созданную душу: я бы не осмелился строить предположения», — добавил Фульда.

Есть две основные проблемы, которые необходимо решить.Первый — это семантика: очень трудно определить, что на самом деле означает быть сознательным или разумным, или что может означать наличие души или функции души, как это описано в статье BBC .

Вторая проблема — это технический прогресс. По сравнению с технологией, которая потребовалась бы для создания искусственного интеллекта — как бы она ни выглядела или как бы мы ее ни определили — даже наши самые продвинутые инженеры по-прежнему ютятся в пещерах, трет палки друг о друга, чтобы разжечь огонь и приготовить шерстистого мамонта. стейки.

На прошлогоднем заседании биолог и инженер Кристоф Кох спорили с Дэвидом Чалмерсом, ученым-когнитивистом, по поводу того, что значит быть сознательным. Разговор метался между умозрительными мысленными экспериментами, касающимися машин и зомби (определяемых как тех, кто действует неотличимо от людей, но не имеет внутреннего разума). Он часто отклонялся от того, что может быть убедительно доказано научными данными. Чалмерс утверждал, что машина , более совершенная, чем у нас сегодня, могла бы стать сознательной, но Кох не согласился, основываясь на текущем состоянии нейробиологии и технологий искусственного интеллекта.

В литературе по неврологии сознание рассматривается как повествование, построенное нашим мозгом, которое включает в себя наши чувства, то, как мы воспринимаем мир, и наши действия. Но даже в рамках этого определения нейробиологи пытаются определить , почему мы обладаем сознанием, и как лучше всего определить это с точки зрения нейронной активности. А для религиозного ли это сознание то же самое, что и то, что даровано наличием души? И это даже не касается техники.

«Люди ИИ обычно путают душу с разумом или, более конкретно, со способностью создавать сложные модели поведения», — сказал Футуризм Ондржей Беран, философ и специалист по этике из Пардубицкого университета.

«Люди ИИ обычно путают душу с разумом»

«Роль, которую концепция души играет в нашей культуре, переплетается с контекстами, в которых мы говорим, что чья-то душа благородна или порочна», — добавил Беран. приходит с оценочным суждением. «[По] моему мнению, нужен не прорыв в науке или технике искусственного интеллекта, а, скорее, общий концептуальный сдвиг. Изменение чувствительности и воображения, с которыми люди общаются друг с другом на своем языке.

Беран привел в пример произведения искусства, созданные искусственным интеллектом. Часто эти работы дарят ради развлечения. Но когда мы называем то, что алгоритм создает «искусством», мы часто не принимаем во внимание, создал ли алгоритм просто своего рода изображение или мелодию или создал что-то значимое — не только для аудитории, но и для самого себя . Конечно, искусство, созданное людьми, часто не достигает и этой второй группы. «Очень неясно, что вообще может означать то, что что-то имеет значение для искусственного интеллекта», — добавил Беран.

Так сможет ли машина достичь разумности, если она сможет внутренне обдумывать, а не бездумно перетирать входы и выходы? Или действительно нужно это внутреннее что-то , прежде чем мы, как общество, будем считать машины сознательными? Опять же, ответ запутан из-за того, как мы подходим к вопросу, и конкретных определений, к которым мы приходим.

«Я считаю, что душа — это не что-то вроде субстанции», — сказал футуризму Владимир Гавлик, философ из Чешской академии наук, который пытался определить ИИ с эволюционной точки зрения.«Мы можем сказать, что это что-то вроде связной идентичности, которая постоянно создается в течение времени и представляет человека», — добавил он.

Гавлик предположил, что вместо того, чтобы беспокоиться о богословском аспекте души, мы могли бы определить душу как своего рода внутренний характер, который выдерживает испытание временем. И в этом смысле он не видит причин, по которым машина или система искусственного интеллекта не могут развить персонажа — это просто зависит от самого алгоритма. По мнению Хавлика, персонаж возникает из сознания, поэтому системы искусственного интеллекта, которые развивают такого персонажа, должны быть основаны на достаточно передовых технологиях, чтобы они могли принимать решения и размышлять над ними таким образом, чтобы сравнивать прошлые результаты с будущими ожиданиями, во многом подобно тому, как люди узнать о мире.

Но вопрос о том, можем ли мы построить одушевленную или сознательную машину, имеет значение только для тех, кто считает такие различия важными. По своей сути искусственный интеллект — это инструмент. Даже более сложные алгоритмы, которые могут обходить черту и представляться как сознательные сущности, являются воссозданием сознательных существ, а не новым видом мыслящих, самоосознающих существ.

«Мой подход к ИИ по сути прагматичен», — сказал Футуризму Питер Вэмплеу, исследователь ИИ из Университета Федерации.«Для меня не имеет значения, обладает ли система искусственного интеллекта реальным интеллектом или реальными эмоциями и сочувствием. Важно только то, что он ведет себя так, чтобы приносить пользу человеческому обществу ».

«Для меня не имеет значения, обладает ли система искусственного интеллекта реальным интеллектом … Важно только то, что она ведет себя таким образом, чтобы приносить пользу человеческому обществу».

Для Vamplew вопрос о том, может ли машина иметь душу или нет, имеет смысл только тогда, когда вы верите в души как концепцию.Он этого не делает, значит, это не так. Он чувствует, что когда-нибудь машины смогут воссоздать убедительные эмоциональные реакции и действовать так, как будто они люди, но не видит причин вводить в эту смесь теологию.

И он не тот, кто считает, что истинное сознание невозможно в машинах. «Я очень критически отношусь к идее искусственного сознания», — сказал Футуризм Бернардо Каструп, философ и исследователь искусственного интеллекта. «Я думаю, это чушь. С другой стороны, за искусственным интеллектом будущее.

Каструп недавно написал статью для Scientific American , в которой он излагает свой аргумент о том, что сознание является фундаментальным аспектом естественной вселенной и что люди используют диссоциированные фрагменты сознания, чтобы стать отдельными людьми. Он пояснил, что считает, что даже общий ИИ — так называется всеобъемлющий ИИ, который мы видим в научной фантастике, — может когда-нибудь появиться, но даже такая система ИИ никогда не может иметь частных, сознательных внутренних мыслей. как люди.

«София, к сожалению, в лучшем случае смешна. И, что более важно, мы по-прежнему относимся к ней как к таковой », — сказал Беран, имея в виду частично интеллектуального робота Hanson Robotics.

Изображение предоставлено: Алекс Найт / Виктор Тангерманн

Еще более прискорбно то, что растет подозрение, что наш подход к разработке передового искусственного интеллекта вскоре может упасть. В статье, опубликованной на прошлой неделе в The New York Times , цитируется несколько инженеров, которые все более скептически относятся к тому, что наше машинное обучение, даже технологии глубокого обучения, будут продолжать развиваться, как в последние годы.

Ненавижу быть палкой в ​​грязи. Я действительно верю. Но даже если мы решим семантический спор о том, что значит быть сознательным, разумным, иметь душу, нам может навсегда не хватать технологии, которая привела бы алгоритм к этой точке.

Но когда искусственный интеллект только появился, никто не мог предсказать, что он может делать сегодня. Конечно, люди представляли себе роботов-помощников в стиле Jetsons или передовой транспорт в стиле Epcot, но они не знали, какие реальные шаги приведут нас к этому.И сегодня мы не знаем реальных шагов, которые приведут нас к машинам, которые эмоционально разумны, чувствительны, вдумчивы и искренне интроспективны.

Это ни в коем случае не делает задачу невыполнимой — мы просто не знаем, как туда добраться еще . И тот факт, что мы не уладили спор о том, где на самом деле разместить финишную черту, еще больше усложняет задачу.

«Нам еще предстоит пройти долгий путь», — говорит Фульда. Она предполагает, что ответом не будет сложение алгоритмов по кусочкам, как мы часто делаем для решения сложных проблем с помощью искусственного интеллекта.

«Невозможно решить проблему человечества по отдельности», — говорит Фульда. «Это гештальт-опыт». Например, она утверждает, что мы не можем понять познание без понимания восприятия и передвижения. Мы не можем точно моделировать речь, не зная, как моделировать сочувствие и социальную осведомленность. По словам Фульды, пытаться собрать эти детали вместе в машине по одной, это все равно что воссоздать Мона Лизу, «вылив нужное количество краски в банку».

Остается определить, находится ли этот шедевр в ожидании покраски.Но если это так, такие исследователи, как Фульда, соперничают за право наносить мазки. Технологии будут идти вперед, пока мы будем продолжать искать ответы на подобные вопросы. Но по мере того, как мы составляем новый код, который заставит машины завтра делать вещи, о которых мы не могли вообразить вчера, нам все равно нужно разобраться, к чему мы хотим, чтобы все это привело.

Станем ли мы да Винчи, изображающим самодовольную женщину, которой будут восхищаться веками, или мы будем Ураном, создавшим богов, которые свергнут нас? Прямо сейчас ИИ будет делать именно то, что мы говорим ИИ, к лучшему или к худшему.Но если мы перейдем к алгоритмам, которые, по крайней мере, начинают отображаться как разумные, мы должны понять, что это означает.

Заботитесь о поддержке внедрения чистой энергии? Узнайте, сколько денег (и планеты!) Вы можете сэкономить, переключившись на солнечную энергию, на UnderstandSolar.com. Регистрируясь по этой ссылке, Futurism.com может получать небольшую комиссию.

Искусственное сознание и диссоциация сознание-внимание

https://doi.org/10.1016/j.concog.2016.08.011Получите права и контент

Основные моменты

Диссоциация между человеческим вниманием и сознанием имеет значение для ИИ.

Подпрограммы внимания можно запрограммировать в ИИ, но нельзя запрограммировать эмоциональные подпрограммы.

ИИ способен только имитировать человеческие эмоции и никогда не сможет сочувствовать.

Человеческую мотивацию и свободу действий нельзя использовать для определения плановых остановок в ИИ.

Маловероятно, что искусственное сознание когда-либо будет реализовано.

Abstract

Искусственный интеллект переживает переломный момент, когда значительно увеличилось количество проектов, направленных на реализацию сложных форм человеческого интеллекта в машинах. Это исследование пытается смоделировать определенные формы интеллекта с помощью эвристики поиска методом грубой силы, а также воспроизвести особенности человеческого восприятия и познания, включая эмоции.Такие цели имеют значение для искусственного сознания, причем некоторые утверждают, что они будут достижимы, как только мы преодолеем краткосрочные инженерные проблемы. Однако мы считаем, что феноменальное сознание невозможно реализовать в машинах. Это становится очевидным при рассмотрении эмоций и изучении диссоциации между сознанием и вниманием у людей. Хотя мы можем запрограммировать этическое поведение на основе правил и машинного обучения, мы никогда не сможем воспроизвести эмоции или сочувствие, запрограммировав такие системы управления — это будут просто симуляции.Аргументы в пользу этого утверждения включают соображения относительно эволюции, нейропсихологических аспектов эмоций и диссоциации между вниманием и сознанием, обнаруживаемой у людей. В конце концов, мы далеки от достижения искусственного сознания.

Ключевые слова

Искусственный интеллект

Искусственное сознание

Сознание

Визуальное внимание

Феноменология

Эмоции

Эмпатия

Рекомендуемые статьи Цитирующие статьи (0) 9000 Inc.3 Просмотреть полный текст 9v0002 © 2016 ElseВсе права защищены.

Рекомендуемые статьи

Цитирование статей

Философские основы искусственного сознания

https://doi.org/10.1016/j.artmed.2008.07.011 Получите права и содержание

Резюме

Цель

Сознание часто считается таким аспект разума, который меньше всего поддается пониманию или воспроизведению искусственным интеллектом (ИИ). Считается, что первая личная, субъективная природа сознания, которая является чем-то вроде того, что есть нечто, недоступна вычислениям, алгоритмам, обработке и функциям метода искусственного интеллекта.Поскольку ИИ — наиболее многообещающий путь к искусственному сознанию (ИС), многие приходят к выводу, что АС даже более обречены, чем предположительно ИИ. Цель данной статьи — оценить обоснованность этого вывода.

Методы

Результаты достигаются посредством концептуального анализа и аргументации.

Результаты и выводы

Показано, что пессимизм относительно теоретической возможности искусственного сознания необоснован, поскольку он основан на непонимании ИИ и недостаточном осознании возможных ролей, которые ИИ может играть в объяснении или воспроизведении сознания.Это делается путем проведения некоторых фундаментальных различий, относящихся к AC, и использования их, чтобы показать, что некоторые общие причины, приводимые для скептицизма AC, не затрагивают некоторые из (обычно игнорируемых) возможностей AC, например, протез , различительный , Практически необходимо , лагом и (необходимо-но-недостаточно) AC. Попутно три направления работы автора в AC — интерактивный эмпиризм , синтетическая феноменология и онтологически консервативная гетерофеноменология — используются, чтобы проиллюстрировать и мотивировать различия и защиты AC, которые они делают возможными.

Comments