Computational Statistics in Data Science

Здесь есть возможность читать онлайн «Computational Statistics in Data Science» — ознакомительный отрывок электронной книги совершенно бесплатно, а после прочтения отрывка купить полную версию. В некоторых случаях можно слушать аудио, скачать через торрент в формате fb2 и присутствует краткое содержание. Жанр: unrecognised, на английском языке. Описание произведения, (предисловие) а так же отзывы посетителей доступны на портале библиотеки ЛибКат.

Computational Statistics in Data Science: краткое содержание, описание и аннотация

Предлагаем к чтению аннотацию, описание, краткое содержание или предисловие (зависит от того, что написал сам автор книги «Computational Statistics in Data Science»). Если вы не нашли необходимую информацию о книге — напишите в комментариях, мы постараемся отыскать её.

An essential roadmap to the application of computational statistics in contemporary data science
Computational Statistics in Data Science
Computational Statistics in Data Science
Wiley StatsRef: Statistics Reference Online
Computational Statistics in Data Science

Computational Statistics in Data Science — читать онлайн ознакомительный отрывок

Ниже представлен текст книги, разбитый по страницам. Система сохранения места последней прочитанной страницы, позволяет с удобством читать онлайн бесплатно книгу «Computational Statistics in Data Science», без необходимости каждый раз заново искать на чём Вы остановились. Поставьте закладку, и сможете в любой момент перейти на страницу, на которой закончили чтение.

Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

However, a drawback of RNN is that it has problem “remembering” remote information. In RNN, long‐term memory is reflected in the weights of the network, which memorizes remote information via shared weights. Short‐term memory is in the form of information flow, where the output from the previous state is passed into the current state. However, when the sequence length картинка 431is large, the optimization of RNN suffers from vanishing gradient problem. For example, if the loss картинка 432is evaluated at картинка 433, the gradient w.r.t. Computational Statistics in Data Science - изображение 434calculated via backpropagation can be written as

(10) Computational Statistics in Data Science - изображение 435

where Computational Statistics in Data Science - изображение 436is the reason for the vanishing gradient. In RNN, the tanh function is commonly used as the activation function, so

(11) Therefore and is always smaller than 1 When - фото 437

Therefore, and is always smaller than 1 When becomes larger the gradient will get clo - фото 438, and картинка 439is always smaller than 1. When картинка 440becomes larger, the gradient will get closer to zero, making it hard to train the network and update the weights with remote information. However, it is possible that relevant information is far apart in the sequence, so how to leverage remote information of a long sequence is important.

6.3 Long Short‐Term Memory Networks

To solve the problem of losing remote information, researchers proposed long short‐term memory (LSTM) networks. The idea of LSTM was introduced in Hochreiter and Schmidhuber [19], but it was applied to recurrent networks much later. The basic structure of LSTM is shown in Figure 9. It solves the problem of the vanishing gradient by introducing another hidden state картинка 441, which is called the cell state.

Since the original LSTM model was introduced, many variants have been proposed. Forget gate was introduced in Gers et al . [20]. It has been proven effective and is standard in most LSTM architectures. The forwarding process of LSTM with a forget gate can be divided into two steps. In the first step, the following values are calculated:

(12) where and are weight matrix and bias and - фото 442

where Computational Statistics in Data Science - изображение 443and Computational Statistics in Data Science - изображение 444are weight matrix and bias, and Computational Statistics in Data Science - изображение 445is the sigmoid function.

The two hidden states and are calculated by 13 14 - фото 446and Computational Statistics in Data Science - изображение 447are calculated by

(13) Computational Statistics in Data Science - изображение 448

(14) Computational Statistics in Data Science - изображение 449

where картинка 450represents elementwise product between matrices. In Equation ( 13), the first term multiplies картинка 451with картинка 452, controlling what information in the previous cell state can be passed to the current cell state. As for the second term, картинка 453stores the information passed from картинка 454and картинка 455, and картинка 456controls how much information from the current state is preserved in the cell state. The hidden state картинка 457depends on the current cell state and картинка 458, which decides how much information from the current cell state will be passed to the hidden state Figure 9 Architecture of long shortterm memory network LSTM In LSTM if - фото 459.

Figure 9 Architecture of long shortterm memory network LSTM In LSTM if the - фото 460

Figure 9 Architecture of long short‐term memory network (LSTM).

In LSTM, if the loss картинка 461is evaluated at картинка 462, the gradient w.r.t. calculated via backpropagation can be written as 15 where rep - фото 463calculated via backpropagation can be written as

(15) where represents other terms in the partial derivative calculation Since the - фото 464

Читать дальше
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

Похожие книги на «Computational Statistics in Data Science»

Представляем Вашему вниманию похожие книги на «Computational Statistics in Data Science» списком для выбора. Мы отобрали схожую по названию и смыслу литературу в надежде предоставить читателям больше вариантов отыскать новые, интересные, ещё непрочитанные произведения.


Отзывы о книге «Computational Statistics in Data Science»

Обсуждение, отзывы о книге «Computational Statistics in Data Science» и просто собственные мнения читателей. Оставьте ваши комментарии, напишите, что Вы думаете о произведении, его смысле или главных героях. Укажите что конкретно понравилось, а что нет, и почему Вы так считаете.

x