Основы глубокого обучения. Создание алгоритмов для искусственного интеллекта следующего поколения - Ніхіл Будума, Ніколас Локашо: купити книгу в kniga.biz.ua (арт. 2100004660)
kniga.biz.ua

Основы глубокого обучения. Создание алгоритмов для искусственного интеллекта следующего поколения

Fundamentals of Deep Learning

Код: 2100004660
Купити Основы глубокого обучения. Создание алгоритмов для искусственного интеллекта следующего поколения Ніхіл Будума, Ніколас Локашо
Книгу знято з продажу
В бажані
Доставка
БЕЗКОШТОВНА при вартості замовлення від 990 грн
50 грн Укрпошта на відділення
70 грн Нова Пошта на відділення/поштомат
95 грн доставка кур'єром
Детальніше

Оплата
Готівкою або на термінал при отриманні, Безготівкова, Visa/MasterCard
Автор Ніхіл Будума, Ніколас Локашо
Видавництво Манн, Іванов і Фербер
Сторінок 304
Рік 2020
ISBN 978-5-00146-472-3
Обкладинка м'яка
Мова Російська
Формат 80x100/16 (195х240 мм.)

Про книгу Основы глубокого обучения. Создание алгоритмов для искусственного интеллекта следующего поколения

Глубокое обучение — машинное обучение, которое строится на идее обучения через примеры. Эта книга разбирает основные идеи этой сложной отрасли изучения искусственного интеллекта. Авторы ставят цель сформировать целостное представление о том, как решаются задачи в области глубокого обучения, какие понятия используются в этой среде и как внедрять соответствующие алгоритмы.
 
С оживлением нейросетей в 2000-е годы глубокое обучение стало чрезвычайно активно развивающейся областью исследования, прокладывающей путь современному машинному обучению. Эта книга предлагает примеры и толкования, которые помогут понять основные идеи в этой сложной отрасли знаний. Такие крупные компании, как Google, Microsoft и Facebook, обратили внимание на глубокое обучение и активно увеличивают штат своих подразделений, работающих в этой области. Для всех остальных оно остается все еще сложным, комплексным и трудноуловимым предметом. Исследования переполнены непонятным жаргоном, а разрозненные учебники, имеющиеся в сети, не дают должного представления о том, как решаются задачи в этой области. Цель этой книги — заполнить данный пробел.
 
Для кого эта книга
Для всех, кто интересуется или занимается глубоким обучением.
 
Фишки книги
Примеры и толкования, которые помогут понять основные идеи глубокого обучения
Для тех, кто интересуется развитием искусственного интеллекта
Внедряйте алгоритмы как Google, Microsoft и Facebook
 
Об авторе
Нихиль Будума исследует машинное обучение в MIT. Он золотой медалист нескольких международных олимпиад по биологии.

Цитаты из книги
Глубокое обучение
Создание машин с искусственным интеллектом требует решения сложнейших вычислительных задач в истории, которые, однако, наш мозг способен раскусить в доли секунды. Для этого нужно разработать иной способ программирования компьютеров при помощи методов, которые появились в основном в последние 10 лет.
 
Сложность моделей
Одна из главных проблем искусственных нейросетей — чрезвычайная сложность моделей. Рассмотрим сеть, которая получает данные от изображения 28?28 пикселов, передает их в два скрытых слоя по 30 нейронов, а затем в слой с мягким максимумом из 10 нейронов. Общее число ее параметров составляет около 25 тысяч.
 
Муравей
Представьте себе, что вы — муравей, живущий в континентальной части США. Вас выбросили где-то в случайном месте, и ваша задача — найти самую низкую точку на этой поверхности. Как это сделать?
 
Математика
Для математически подкованных читателей подробнее расскажем о том, как гессиан ограничивает оптимизацию только с помощью градиентного спуска. Определенные свойства матрицы Гессе (реальность и симметричность) позволяют успешно определить вторую производную (которая аппроксимирует кривизну поверхности) при движении в определенном направлении.
 
Локальная инвариантность
Локальная инвариантность — очень полезное свойство, если нас больше интересует то, есть ли вообще данный признак, а не то, где именно он находится. Но в больших объемах она может повредить способности нашей сети переносить важную информацию.
 
РНС
В период оптимальной работы модель демонстрирует эффективные результаты и показывает на тестовом наборе данных аккуратность примерно 86%. Поздравляем! Вы создали свою первую рекуррентную нейронную сеть.


pdf Первые 20 страниц книги
pdf Глава 1. Нейросеть


Додати свій відгук про книгу

Зміст Основы глубокого обучения. Создание алгоритмов для искусственного интеллекта следующего поколения

Предисловие
Требования и цели
Условные обозначения
Образцы кода
 
Глава 1. Нейросеть
Создание умных машин
Ограничения традиционных компьютерных программ
Механика машинного обучения
Нейрон
Выражение линейных персептронов в виде нейронов
Нейросети с прямым распространением сигнала
Линейные нейроны и их ограничения
Нейроны с сигмоидой, гиперболическим тангенсом и усеченные линейные 
Выходные слои с функцией мягкого максимума
Резюме
 
Глава 2. Обучение нейросетей с прямым распространением сигнала
Проблема фастфуда
Градиентный спуск
Дельта-правило и темп обучения
Градиентный спуск с сигмоидными нейронами
Алгоритм обратного распространения ошибок
Стохастический и мини-пакетный градиентный спуск
Переобучение и наборы данных для тестирования и проверки
Борьба с переобучением в глубоких нейросетях
Резюме
 
Глава 3. Нейросети в TensorFlow
Что такое TensorFlow?
Сравнение TensorFlow с альтернативами
Установка TensorFlow
Создание переменных TensorFlow и работа с ними
Операции в TensorFlow
Тензоры-заполнители
Сессии в TensorFlow
Области видимости переменной и совместное использование переменных
Управление моделями на CPU и GPU
Создание модели логистической регрессии в TensorFlow 
Журналирование и обучение модели логистической регрессии
Применение TensorBoard для визуализации вычислительного графа и обучения 
Создание многослойной модели для MNIST в TensorFlow
Резюме 
 
Глава 4. Не только градиентный спуск
Проблемы с градиентным спуском
Локальные минимумы на поверхности ошибок глубоких сетей
Определимость модели
Насколько неприятны сомнительные локальные минимумы в нейросетях?
Плоские области на поверхности ошибок 
Когда градиент указывает в неверном направлении
Импульсная оптимизация
Краткий обзор методов второго порядка 
Адаптация темпа обучения
AdaGrad — суммирование исторических градиентов
RMSProp — экспоненциально взвешенное скользящее среднее градиентов
Adam — сочетание импульсного метода с RMSProp
Философия при выборе метода оптимизации
Резюме
 
Глава 5. Сверточные нейросети
Нейроны и зрение человека 
Недостатки выбора признаков
Обычные глубокие нейросети не масштабируются 
Фильтры и карты признаков 
Полное описание сверточного слоя 
Max Pooling (операция подвыборки)
Полное архитектурное описание сверточных нейросетей
Работа с MNIST с помощью сверточных сетей
Предварительная обработка изображений улучшает работу моделей
Ускорение обучения с помощью пакетной нормализации
Создание сверточной сети для CIFAR-10
Визуализация обучения в сверточных сетях
Применение сверточных фильтров для воссоздания художественных стилей 
Обучаем сверточные фильтры в других областях
Резюме 
 
Глава 6. Плотные векторные представления и обучение представлений 
Обучение представлений в пространстве низкой размерности
Метод главных компонент
Мотивация для архитектуры автокодера
Реализация автокодера в TensorFlow 
Шумопонижение для повышения эффективности плотных векторных представлений
Разреженность в автокодерах
Когда контекст информативнее, чем входной вектор данных
Технология Word2Vec
Реализация архитектуры Skip-Gram
Резюме
 
Глава 7. Модели анализа последовательностей
Анализ данных переменной длины 
seq2seq и нейронные N-граммные модели
Реализация разметки частей речи
Определение зависимостей и SyntaxNet
Лучевой поиск и глобальная нормализация
Когда нужна модель глубокого обучения с сохранением состояния
Рекуррентные нейронные сети
Проблема исчезающего градиента
Нейроны долгой краткосрочной памяти (long short-term memory, LSTM)
Примитивы TensorFlow для моделей РНС
Реализация модели анализа эмоциональной окраски
Решение задач класса seq2seq при помощи рекуррентных нейронных сетей  
Дополнение рекуррентных сетей вниманием
Разбор нейронной сети для перевода
Резюме
 
Глава 8. Нейронные сети с дополнительной памятью
Нейронные машины Тьюринга
Доступ к памяти на основе внимания
Механизмы адресации памяти в NTM
Дифференцируемый нейронный компьютер
Запись без помех в DNC
Повторное использование памяти в DNC 
Временное связывание записей DNC
Понимание головки чтения DNC
Сеть контроллера DNC
Визуализация работы DNC
Реализация DNC в TensorFlow
Обучение DNC чтению и пониманию
Резюме
 
Глава 9. Глубокое обучение с подкреплением
Глубокое обучение с подкреплением и игры Atari
Что такое обучение с подкреплением?
Марковские процессы принятия решений (MDP)
Стратегия
Будущая выгода
Дисконтирование будущих выгод
Исследование и использование є-жадность
Нормализованный алгоритм є-жадности
Изучение стратегии и ценности
Изучение стратегии при помощи градиента по стратегиям
Тележка с шестом и градиенты по стратегиям
OpenAI Gym
Создание агента
Создание модели и оптимизатора
Семплирование действий
Фиксация истории
Основная функция градиента по стратегиям
Работа PGAgent в примере с тележкой с шестом
Q-обучение и глубокие Q-сети
Уравнение Беллмана
Проблемы итерации по ценностям
Аппроксимация Q-функции
Глубокая Q-сеть (DQN)
Обучение DQN
Стабильность обучения
Целевая Q-сеть
Повторение опыта
От Q-функции к стратегии
DQN и марковское предположение
Решение проблемы марковского предположения в DQN
Игра в Breakout при помощи DQN
Создание архитектуры
Занесение кадров в стек
Задание обучающих операций
Обновление целевой Q-сети
Реализация повторения опыта
Основной цикл DQN
Результаты DQNAgent в Breakout
Улучшение и выход за пределы DQN
Глубокие рекуррентные Q-сети (DRQN)
Продвинутый асинхронный агент-критик (A3C)
UNsupervised REinforcement and Auxiliary Learning
(UNREAL; подкрепление без учителя и вспомогательное обучение
Резюме
 
Примечания
Благодарности
Несколько слов об обложке
Об авторе
 


Залишити свій відгук:

Сьогодні купили