Что такое искусственный интеллект загадка
Обновлено: 05.11.2024
Дожили до того момента, когда искусственный интеллект создаёт собственную нейросеть. Хотя многие думают, что это одно и тоже. Но на самом деле не всё так просто и сейчас мы попробуем разобраться что это такое и кто кого может создать.
Инженеры из подразделения Google Brain весной текущего года продемонстрировали AutoML. Этот искусственный интеллект умеет без участия человека производить собственные уникальнейшие ИИ. Как выяснилось совсем недавно, AutoML смог впервые создать NASNet, систему компьютерного зрения. Данная технология серьёзно превосходит все созданные ранее людьми аналоги. Эта основанная на искусственном интеллекте система может стать отличной помощницей в развитии, скажем, автономных автомобилей. Применима она и в робототехнике – роботы смогут выйти на абсолютно новый уровень.
Развитие AutoML проходит по уникальной обучающей системе с подкреплением. Речь идёт о нейросети-управленце, самостоятельно разрабатывающей абсолютно новые нейросети, предназначенные для тех или иных конкретных задач. В указанном нами случае AutoML имеет целью производство системы, максимально точно распознающей в реальном времени объекты в видеосюжете.
Искусственный интеллект сам смог обучить новую нейронную сеть, следя за ошибками и корректируя работу. Обучающий процесс повторялся многократно (тысячи раз), до тех пор, пока система не оказалась годной к работе. Любопытно, что она смогла обойти любые аналогичные нейросети, имеющиеся в настоящее время, но разработанные и обученные человеком.
При этом AutoML оценивает работу NASNеt и использует эту информацию для улучшения дочерней сети; этот процесс повторяется тысячи раз. Когда инженеры протестировали NASNet на наборах изображений ImageNet и COCO, она превзошла все существующие системы компьютерного зрения.
В Google официально заявили, что NASNet распознаёт с точностью равной 82,7%. Результат на 1.2 % превышает прошлый рекорд, который в начале осени нынешнего года установили исследователи из фирмы Momenta и специалисты Оксфорда. NASNet на 4% эффективнее своих аналогов со средней точностью в 43,1%.
Есть и упрощённый вариант NASNet, который адаптирован под мобильные платформы. Он превосходит аналоги чуть больше, чем на три процента. В скором будущем можно будет использовать данную систему для производства автономных автомобилей, для которых важно наличие компьютерного зрения. AutoML же продолжает производить новые потомственные нейросети, стремясь к покорению ещё больших высот.
При этом, конечно, возникают этические вопросы, связанные с опасениями по поводу ИИ: что, если AutoML будет создавать системы с такой скоростью, что общество просто за ними не поспеет? Впрочем, многие крупные компании стараются учитывать проблемы безопасности ИИ. Например, Amazon, Facebook, Apple и некоторые другие корпорации являются членами Партнерства по развитию ИИ (Partnership on AI to Benefit People and Society). Институт инженеров и электротехники (IEE) же предложил этические стандарты для ИИ, а DeepMind, например, анонсировал создание группы, которая будет заниматься моральными и этическими вопросами, связанными с применениями искусственного интеллекта.
Впрочем, многие крупные компании стараются учитывать проблемы безопасности ИИ. При этом, конечно, возникают этические вопросы, связанные с опасениями по поводу ИИ: что, если AutoML будет создавать системы с такой скоростью, что общество просто за ними не поспеет? Институт инженеров и электротехники (IEE) же предложил этические стандарты для ИИ, а DeepMind, например, анонсировал создание группы, которая будет заниматься моральными и этическими вопросами, связанными с применениями искусственного интеллекта. Например, Amazon, Facebook, Apple и некоторые другие корпорации являются членами Партнерства по развитию ИИ (Partnership on AI to Benefit People and Society).
Что такое искусственный интеллект?
Автором термина «искусственный интеллект» является Джон Маккарти, изобретатель языка Лисп, основоположник функционального программирования и лауреат премии Тьюринга за огромный вклад в области исследований искусственного интеллекта.
Искусственный интеллект — это способ сделать компьютер, компьютер-контролируемого робота или программу способную также разумно мыслить как человек.
Исследования в области ИИ осуществляются путем изучения умственных способностей человека, а затем полученные результаты этого исследования используются как основа для разработки интеллектуальных программ и систем.
Что такое нейронная сеть?
Идея нейросети заключается в том, чтобы собрать сложную структуру из очень простых элементов. Вряд ли можно считать разумным один-единственный участок мозга — а вот люди обычно на удивление неплохо проходят тест на IQ. Тем не менее до сих пор идею создания разума «из ничего» обычно высмеивали: шутке про тысячу обезьян с печатными машинками уже сотня лет, а при желании критику нейросетей можно найти даже у Цицерона, который ехидно предлагал до посинения подбрасывать в воздух жетоны с буквами, чтобы рано или поздно получился осмысленный текст. Однако в XXI веке оказалось, что классики ехидничали зря: именно армия обезьян с жетонами может при должном упорстве захватить мир.
На самом деле нейросеть можно собрать даже из спичечных коробков: это просто набор нехитрых правил, по которым обрабатывается информация. «Искусственным нейроном», или перцептроном, называется не какой-то особый прибор, а всего лишь несколько арифметических действий.
Работает перцептрон проще некуда: он получает несколько исходных чисел, умножает каждое на «ценность» этого числа (о ней чуть ниже), складывает и в зависимости от результата выдаёт 1 или –1. Например, мы фотографируем чистое поле и показываем нашему нейрону какую-нибудь точку на этой картинке — то есть посылаем ему в качестве двух сигналов случайные координаты. А затем спрашиваем: «Дорогой нейрон, здесь небо или земля?» — «Минус один, — отвечает болванчик, безмятежно разглядывая кучевое облако. — Ясно же, что земля».
«Тыкать пальцем в небо» — это и есть основное занятие перцептрона. Никакой точности от него ждать не приходится: с тем же успехом можно подбросить монетку. Магия начинается на следующей стадии, которая называется машинным обучением. Мы ведь знаем правильный ответ — а значит, можем записать его в свою программу. Вот и получается, что за каждую неверную догадку перцептрон в буквальном смысле получает штраф, а за верную — премию: «ценность» входящих сигналов вырастает или уменьшается. После этого программа прогоняется уже по новой формуле. Рано или поздно нейрон неизбежно «поймёт», что земля на фотографии снизу, а небо сверху, — то есть попросту начнёт игнорировать сигнал от того канала, по которому ему передают x-координаты. Если такому умудрённому опытом роботу подсунуть другую фотографию, то линию горизонта он, может, и не найдёт, но верх с низом уже точно не перепутает.
В реальной работе формулы немного сложнее, но принцип остаётся тем же. Перцептрон умеет выполнять только одну задачу: брать числа и раскладывать по двум стопкам. Самое интересное начинается тогда, когда таких элементов несколько, ведь входящие числа могут быть сигналами от других «кирпичиков»! Скажем, один нейрон будет пытаться отличить синие пиксели от зелёных, второй продолжит возиться с координатами, а третий попробует рассудить, у кого из этих двоих результаты ближе к истине. Если же натравить на синие пиксели сразу несколько нейронов и суммировать их результаты, то получится уже целый слой, в котором «лучшие ученики» будут получать дополнительные премии. Таким образом достаточно развесистая сеть может перелопатить целую гору данных и учесть при этом все свои ошибки.
Нейронную сеть можно сделать с помощью спичечных коробков — тогда у вас в арсенале появится фокус, которым можно развлекать гостей на вечеринках. Редакция МирФ уже попробовала — и смиренно признаёт превосходство искусственного интеллекта. Давайте научим неразумную материю играть в игру «11 палочек». Правила просты: на столе лежит 11 спичек, и в каждый ход можно взять либо одну, либо две. Побеждает тот, кто взял последнюю. Как же играть в это против «компьютера»?
Берём 10 коробков или стаканчиков. На каждом пишем номер от 2 до 11.
Кладём в каждый коробок два камешка — чёрный и белый. Можно использовать любые предметы — лишь бы они отличались друг от друга. Всё — у нас есть сеть из десяти нейронов!
Нейросеть всегда ходит первой. Для начала посмотрите, сколько осталось спичек, и возьмите коробок с таким номером. На первом ходу это будет коробок №11. Возьмите из нужного коробка любой камешек. Можно закрыть глаза или кинуть монетку, главное — действовать наугад.
Если камень белый — нейросеть решает взять две спички. Если чёрный — одну. Положите камешек рядом с коробком, чтобы не забыть, какой именно «нейрон» принимал решение. После этого ходит человек — и так до тех пор, пока спички не закончатся.
Ну а теперь начинается самое интересное: обучение. Если сеть выиграла партию, то её надо наградить: кинуть в те «нейроны», которые участвовали в этой партии, по одному дополнительному камешку того же цвета, который выпал во время игры. Если же сеть проиграла — возьмите последний использованный коробок и выньте оттуда неудачно сыгравший камень. Может оказаться, что коробок уже пустой, — тогда «последним» считается предыдущий походивший нейрон. Во время следующей партии, попав на пустой коробок, нейросеть автоматически сдастся.
Вот и всё! Сыграйте так несколько партий. Сперва вы не заметите ничего подозрительного, но после каждого выигрыша сеть будет делать всё более и более удачные ходы — и где-то через десяток партий вы поймёте, что создали монстра, которого не в силах обыграть.
Следующая загадка
Какая женщина сначала трется возле тебя, а потом
начинает требовать с тебя деньги?
Не лает, не кусается, и точно так же называется.
Оно всегда перед нами, но видеть его мы не можем. Что это?
Каким гребнем не расчешешь волосы?
Какой болезнью никто не болеет на суше?
Что нельзя сделать в космосе?
Что нужно делать, когда видишь зеленого человечка?
Какой конь не ест овса?
Как правильно писать: "ягодицы" или "егодицы"?
Почему роботы никогда не боятся?
Почему у гориллы большие ноздри?
Что такое: голова есть, головы нет, голова есть, головы нет?
Что бросают тогда, когда это необходимо, и поднимают тогда,
когда это уже не нужно?
Кто, на поставленный ему вопрос никогда не ответит "Да"?
Какими нотами можно измерить расстояние?
С когтями, а не птица, летит и матерится.
Чем заканчиваются день и ночь?
Остров, выдающий себя за одежду.
Что будет, если скрестить клопов со светлячками?
Что такое "искусственный интеллект"?
Где вода стоит столбом?
Что может быть в пустом кармане?
За что обычно учеников выгоняют из класса?
Учреждение по отправке людей на небеса.
Сборник шуточных занимательных загадок и вопросов на проверку смекалки и чувства юмора. Загадки для взрослых (вполне приличные) с подвохом на все случаи жизни. Ко всем имеющимся загадкам имеются ответы, которые Вы можете в любой момент посмотреть и сравнить с собственными вариантами.
Умникам и умницам
Девяносто девять загадок собранных в данной книге автором — известным на Западе коллекционером головоломок — и украшены любопытными иллюстрациями .
Книга французского инженера Ж.-К. Байифа, продолжающая серию книг по занимательной математике, содержит более ста задач из различных разделов математики, среди которых широко представлены .
В этой книге помещено множество новейших тестов, которые помогут вам развить ваш интеллект. Самые разнообразные головоломки и тесты охватывают такие сферы интеллекта, как творческое .
Следующая загадка
Специалисты в области информационных технологий, программисты и ученые-биологи из университета Тафтса (Tufts University) создали специализированную систему компьютерного искусственного интеллекта, которая оказалась способной развить и доказать свою собственную научную теорию без какой-либо любой помощи со стороны людей. Эта система произвела анализ всех имеющихся данных, полученных в ходе многочисленных исследований плоских червей вида Planarian, некоторые функции организма которого озадачивали ученых-биологов уже без малого 120 лет.
Исследования показали, что организм червя Planarian обладает потрясающими способностями к регенерации. В случае получения повреждений такие черви в состоянии полностью восстановить достаточно большие фрагменты их тела, но как и за счет чего это все происходит, оставалось для ученых полной загадкой в течение долгого времени.
Компьютер, произведя анализ всей имеющейся информации, собранной в ходе предыдущих исследований, взялся за разработку решений, объясняющих механизм повышенной регенерации.
Следует отметить, что процесс всех расчетов и поиска основного варианта генетической сети, который выполнялся методом проб и ошибок, занял трое суток напряженной работы достаточно мощного суперкомпьютера. И как оказалось, что основу процесса ускоренной регенерации составляют две молекулы белков, о функциях которых ученым было известно ранее, и две совершенно новые для ученых молекулы.
Сделанное искусственным интеллектом открытие представляет собой самую точную и всестороннюю на сегодняшний день модель процесса регенерации организма на примере плоского червя Planarian. Эта модель имеет огромное значение для дальнейшего развития направления регенерационной медицины, кроме этого, все это демонстрирует огромный потенциал систем компьютерного искусственного интеллекта, который в будущем сможет решить множество подобных задач, которые непосильны людям по объему работ и количеству обрабатываемой информации.
Следующая загадка
Искусственный интеллект (artificial intelligence, AI) — одна из самых противоречивых областей науки, предмет горячих споров и, в некотором роде, инструмент для мифологизации будущего. Наша редакция подготовила перевод статьи, прочтение которой поможет осознать некоторые аспекты создания и развития технологий AI.
Непонимание
В прошлом году на дорогах Монмут-Каунти (штат Нью-Джерси, США) появился странный беспилотный автомобиль. Экспериментальное средство передвижения, разработанное исследователями Nvidia, внешне не отличалось от других автономных машин, но и не было похоже на то, что ранее демонстрировали Google, Tesla или General Motors. Вместо выполнения инструкций программистов, автомобиль полагался на алгоритм, который обучился вождению, наблюдая за тем, как это делает человек.
Звучит впечатляюще, но не совсем понятно, как машина принимает решения. Информация от датчиков автомобиля поступает в огромную сеть искусственных нейронов, которые обрабатывают данные, а затем передают команды, необходимые для управления рулевым колесом, тормозами и другими системами. Результат соответствует реакциям, которые вы ожидаете от человека-водителя. Но что, если однажды он сделает что-то неожиданное: врежется в дерево или заглохнет на зелёном сигнале светофора? Система настолько сложна, что даже инженеры, разработавшие её, не всегда могут установить причину отдельных действий. И нет очевидного способа создать такую систему, которая всегда может пояснить свои действия.
Таинственный ум этого автомобиля свидетельствует о проблеме, связанной с AI. Технология глубокого обучения в течение последних лет неоднократно демонстрировала свою эффективность и широко применялась для таких задач, как распознавание объектов на изображении, голоса и создания языкового перевода. Сейчас есть надежда, что такие же методы помогут диагностировать тяжёлые болезни на ранних стадиях, принимать решения в торговле и преобразовывать целые отрасли нашей жизни.
Но этого не случится, если мы не найдём способ сделать глубокое обучение более понятным и подконтрольным как пользователям, так и создателям. Пока что сложно предсказать, когда могут произойти сбои, а они неизбежны. И это — одна из причин, по которой автомобиль Nvidia все ещё на стадии эксперимента.
Уже сегодня математические модели используются для определения заключённых, которые заслуживают условно-досрочного освобождения; для выявления клиентов на получение кредита в финансовом учреждении или для трудоустройства на работу. Если бы вы могли получить доступ к этим математическим моделям, их действия стали бы понятнее. Но банки, работодатели и правоохранители теперь обращают внимание на более сложные подходы, которые могут сделать автоматизированное принятие решений совершенно непостижимым для человека.
Начиная с лета 2018 года, Евросоюз может потребовать, чтобы компании давали пользователям объяснения решений, которые принимают автоматизированные системы. Но это невозможно даже для относительно простых систем: приложения и веб-сайты, которые используют глубокое обучение для показа рекламы или рекомендации песен. Компьютеры, которые запускают эти службы, программируются сами по себе, и делают это непонятным для нас способом. Даже инженеры, которые создают эти приложения, не могут полностью объяснить их поведение.
Конечно, и люди не всегда могут в точности объяснить свои мыслительные процессы, но мы находим способы интуитивно доверять и оценивать поведение других. Возможно ли такое доверие к машинам, которые принимают решения иначе, чем люди?
Вклад в медицину
В 2015 году исследовательская группа при госпитале Маунт Синай (Mount Sinai Hospital) в Нью-Йорке решила применять глубокое обучение в обширной базе данных о пациентах. Набор данных содержит сотни переменных, взятых из результатов тестирования, визитов к врачу и т. д. Полученная в результате программа, которую исследователи назвали Deep Patient, была обучена при помощи использования данных примерно 700 тыс. человек; а в тестах на новых данных она оказалась невероятно хороша для прогнозирования болезни. Без какой-либо инструкции Deep Patient обнаружила паттерны, скрытые в больничных данных и указывающие на то, что люди находились на стадии развития новых болезней, включая рак печени.
Джоэл Дадли (Joel Dudley), возглавляющий команду Маунт Синай, указывает на то, что Deep Patient озадачивает врачей. Оказывается, она на удивление хорошо обнаруживает зарождение психических расстройств, таких как шизофрения. Но поскольку шизофрения, как известно, трудно поддаётся прогнозам медиков, Дадли задался вопросом, как это можно пояснить. Новый инструмент не даёт представления о том, как он это делает. Если программа вроде Deep Patient на самом деле собирается помочь врачам, в идеале она должна предоставить обоснование своего прогноза, чтобы убедить специалистов и оправдать курс лечения. «Мы можем построить эти модели, но мы не знаем, как они работают», — печально подытоживает Дадли.
Глубокое обучение
Искусственный интеллект не всегда был таким. С самого начала бытовали две точки зрения, касающиеся того, насколько понятным или объяснимым должен быть AI. Многие думали, что имеет смысл создавать машины, которые рассуждают согласно правилам и логике, а их внутренняя работа является прозрачной для любого, кто хотел бы изучить код. Другие считали, что интеллект будет проявляться, если машины черпают вдохновение в биологии и учатся, наблюдая и переживая. Вместо того, чтобы программист писал команды для решения определённых проблем, программа генерирует свой собственный алгоритм на основе заданных примеров и желаемого конечного результата. Технологии машинного обучения, которые позже эволюционировали в самые мощные сегодня AI-системы, следуют последнему пути: машина, по сути, сама программирует себя.
В 1960-1970-х годах этот подход имел ограниченное практическое применение, Затем интерес к компьютеризации многих отраслей и появлению больших массивов данных возобновился. Это вдохновило разработку более мощных техник, таких как искусственная нейронная сеть. К 1990-м годам нейронные сети могли автоматически оцифровывать рукописные символы. Но только в начале этого десятилетия, после значительных усовершенствований, большие или «глубокие» нейронные сети продемонстрировали значительное улучшение автоматического восприятия.
Развитие возможностей AI сегодня обусловлено именно глубоким обучением; оно трансформировало компьютерное зрение и улучшило машинный перевод. Работа любой технологии машинного обучения более загадочна для IT-специалистов, чем вручную написанная система. Это не означает, что все будущие техники искусственного интеллекта будут также распознаны. Но по своей природе, глубокое обучение — «чёрный ящик».
Вы не можете просто заглянуть внутрь глубокой нейронной сети и понять, как она работает. Формирование рассуждений сети встроено в поведение тысячей смоделированных нейронов, расположенных в десятках и сотнях взаимосвязанных слоёв. Каждый нейрон в первом слое получает вводную, как и интенсивность пикселя в изображении, а затем делает вычисление перед выводом нового сигнала. Эти выходные сигналы передаются в сложной сети нейронам следующего уровня, и так далее, пока не будет получен общий результат. Кроме того, существует процесс, известный как обратное распространение ошибки обучения, который корректирует вычисления отдельных нейронов таким образом, чтобы сеть научилась выдавать желаемый результат.
Многие уровни в глубокой сети позволяют распознавать вещи разной сложности абстракции. Например, в системе, предназначенной для распознавания изображения собак, нижние слои распознают простые вещи, такие как контуры или цвет; более высокие слои распознают более сложные вещи, такие как шерсть или глаза; и уже самый верхний слой идентифицирует всё это как собаку. Такой же подход может быть применён и к другим вводным, которые заставляют машину обучать себя: звукам, которые составляют из слов речь, буквам и словам, которые создают предложения в тексте, движениям рулевого колеса, необходимым для вождения.
Опыт применения
Первые стратегии использовались для того, чтобы попытаться отследить и затем более подробно объяснить, что происходит в таких системах. В 2015 году исследователи из Google изменили алгоритм распознавания изображений на основе глубокого обучения, чтобы вместо определения объектов на фотографиях он генерировал или изменял их. За счёт эффективного выполнения алгоритма в обратном порядке, они хотели обнаружить функции, которые программа использует для распознавания, например, птиц или зданий.
Полученные изображения, созданные проектом Deep Dream, продемонстрировали гротескных животных из облаков и растений, радужные пагоды, цветущие среди лесов и горных хребтов. Изображения доказали, что глубокое обучение необязательно должно быть непостижимым: алгоритмы основываются на знакомых визуальных функциях, таких как птичий клюв или перья. Но изображения также демонстрировали, насколько глубокое обучение отличается от человеческого восприятия, и как оно интерпретирует факты, которые мы могли бы проигнорировать. Пример: когда алгоритм создавал изображение гантели, он также сгенерировал человеческую руку, удерживающую её. Машина решила, что рука является частью вещи.
Дальнейший прогресс обеспечили идеи, заимствованные из нейронауки и когнитивной науки. Группа во главе с доктором Джеффом Клюном (Jeff Clune) из Университета Вайоминга использовала аналоговый эквивалент оптических иллюзий для тестирования глубоких нейронных сетей. В 2015 году группа Клюна показала, как определённые изображения могут обмануть такую сеть и заставить её воспринимать вещи, которых там нет, потому что изображения используют низкоуровневые шаблоны, которые ищет система.
Регина Барзилай (Regina Barzilay), профессор MIT, намерена применять машинное обучение в медицине. В возрасте 43 лет у Барзилай был диагностирован рак молочной железы. Кроме очевидных трудностей, профессор также была обеспокоена тем, что самые современные методы статистического и машинного обучения не использовались в онкологических исследованиях. AI обладает огромным потенциалом для совершенствования медицины, но этот потенциал будет означать выход за рамки одних лишь медицинских записей. Она предлагает использовать больше необработанных данных, которые сейчас недостаточно эксплуатируются. После окончания своего лечения в прошлом году, Барзилай и её ученики начали работать с врачами из больницы Массачусетса, чтобы разработать систему, способную выявлять патологии и идентифицировать пациентов с определёнными клиническими состояниями для исследования.
Вооружённые силы США вкладывают миллиарды в проекты, которые будут использовать машинное обучение. Аналитики тестируют автоматический поиск закономерностей в разведческих данных; разрабатываются многие беспилотные наземные и воздушные аппараты. Но солдаты, вероятно, будут чувствовать себя некомфортно в роботизированном танке, который не будет им ничего объяснять, а аналитики будут неохотно работать с информацией без каких-либо рассуждений.
Один из недостатков этого и других подобных подходов заключается в том, что предоставленные объяснения всегда будут упрощены, а значит, некоторые важные сведения могут быть утеряны. «Мы не достигли той мечты, в которой искусственный интеллект беседует с человеком и способен объяснить свои действия», — говорит Гестрин.
Понимание построения рассуждений AI также будет иметь решающее значение, если технология станет общей и полезной частью нашей повседневной жизни. Том Грубер (Tom Gruber), возглавляющий команду Siri в Apple, говорит, что объяснимость — это основная цель для его команды, поскольку она пытается сделать Siri более «умным» и способным виртуальным помощником. Руслан Салахутдинов (Ruslan Salakhutdinov), директор отдела исследований AI в Apple и профессор Университета Карнеги-Меллона, видит объяснимость основой эволюции отношений между людьми и машинами.
Человек не может обосновать многие аспекты своего поведения, вполне возможно, что и у искусственного интеллекта не получится объяснить всё, что он делает. Если это так, то на каком-то этапе нам придётся просто довериться решениям алгоритмов или обходиться без их использования.
Читайте также: