Vahid Mirjalili - Python Machine Learning

Здесь есть возможность читать онлайн «Vahid Mirjalili - Python Machine Learning» — ознакомительный отрывок электронной книги совершенно бесплатно, а после прочтения отрывка купить полную версию. В некоторых случаях можно слушать аудио, скачать через торрент в формате fb2 и присутствует краткое содержание. Жанр: unrecognised, на испанском языке. Описание произведения, (предисловие) а так же отзывы посетителей доступны на портале библиотеки ЛибКат.

Python Machine Learning: краткое содержание, описание и аннотация

Предлагаем к чтению аннотацию, описание, краткое содержание или предисловие (зависит от того, что написал сам автор книги «Python Machine Learning»). Если вы не нашли необходимую информацию о книге — напишите в комментариях, мы постараемся отыскать её.

El aprendizaje automático está invadiendo el mundo del software. Si quieres entender y trabajar la vanguardia del aprendizaje automático, las redes neuronales y el aprendizaje profundo, esta segunda edición del bestseller Python Machine Learning, es tu libro.
Modernizado y ampliado para incluir las tecnologías de código abierto más recientes, como scikit-learn, Keras y TensorFlow, este manual proporciona el conocimiento práctico y las técnicas necesarias para crear eficaces aplicaciones de aprendizaje automático y aprendizaje profundo en Python.
El conocimiento y la experiencia únicos de Sebastian Raschka y Vahid Mirjalili presentan los algoritmos de aprendizaje automático y aprendizaje profundo, antes de continuar con temas avanzados en análisis de datos.
Combinan los principios teóricos del aprendizaje automático con un enfoque práctico de codificación para una comprensión completa de la teoría del aprendizaje automático y la implementación con Python.
Aprenderás a:
Explorar y entender los frameworks clave para la ciencia de datos, el aprendizaje automático y el aprendizaje profundo
Formular nuevas preguntas sobre datos con modelos de aprendizaje automático y redes neuronales
Aprovechar el poder de las últimas librerías de código abierto de Python para aprendizaje automático
Dominar la implementación de redes neuronales profundas con la librería de TensorFlow
Incrustar modelos de aprendizaje automáticos en aplicacions web accesibles
Predecir resultados objetivos continuos con análisis de regresión
Descubrir patrones ocultos y estructuras en datos con agrupamientos
Analizar imágenes mediante técnicas de aprendizaje profundo
Profundizar en datos de medios sociales y textuales con el análisis de sentimientos

Python Machine Learning — читать онлайн ознакомительный отрывок

Ниже представлен текст книги, разбитый по страницам. Система сохранения места последней прочитанной страницы, позволяет с удобством читать онлайн бесплатно книгу «Python Machine Learning», без необходимости каждый раз заново искать на чём Вы остановились. Поставьте закладку, и сможете в любой момент перейти на страницу, на которой закончили чтение.

Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать
Sin embargo a la práctica tanto la impureza de Gini como la entropía producen - фото 346

Sin embargo, a la práctica, tanto la impureza de Gini como la entropía producen normalmente resultados muy similares, y a menudo no vale la pena perder el tiempo evaluando los árboles mediante diferentes criterios de impureza en lugar de experimentar con distintos cortes de poda.

Otra medida de impureza es el error de clasificación:

Se trata de un criterio muy útil para podar aunque no es recomendable para - фото 347

Se trata de un criterio muy útil para podar aunque no es recomendable para hacer crecer un árbol de decisión, puesto que es menos sensible a los cambios en las probabilidades de clase de los nodos. Podemos demostrarlo observando los dos posibles casos de división mostrados en la siguiente imagen:

Empezamos con un conjunto de datos en el nodo padre que consiste en 40 m - фото 348

Empezamos con un conjunto de datos картинка 349en el nodo padre картинка 350, que consiste en 40 muestras de clase 1 y 40 muestras de clase 2 que dividimos en dos conjuntos de datos, картинка 351y Python Machine Learning - изображение 352. La ganancia de información mediante el error de clasificación como un criterio de división sería igual ( Python Machine Learning - изображение 353) en ambos casos, A y B:

Python Machine Learning - фото 354 Python Machine Learning - фото 355 Python Machine Learning - фото 356 Python Machine Learning - фото 357 Sin embargo la impureza favorecería la división en el caso B - фото 358 Python Machine Learning - изображение 359 Python Machine Learning - изображение 360

Sin embargo, la impureza favorecería la división en el caso B ( Python Machine Learning - изображение 361) por encima del caso A ( Python Machine Learning - изображение 362) que, de hecho, es más puro:

Python Machine Learning - фото 363 Python Machine Learning - фото 364 Python Machine Learning - фото 365 Python Machine Learning - фото 366 De forma parecida el criterio de entropía también favorecerí - фото 367 De forma parecida el criterio de entropía también favorecería el caso B - фото 368 Python Machine Learning - изображение 369

De forma parecida, el criterio de entropía también favorecería el caso B ( Python Machine Learning - изображение 370) por encima del caso A ( Python Machine Learning - изображение 371):

Python Machine Learning - фото 372 Python Machine Learning - фото 373 Python Machine Learning - фото 374 Python Machine Learning - фото 375 Para obtener una comparación más visual de los tres criterios - фото 376 Para obtener una comparación más visual de los tres criterios distintos de - фото 377 Para obtener una comparación más visual de los tres criterios distintos de - фото 378

Para obtener una comparación más visual de los tres criterios distintos de impureza que acabamos de tratar, vamos a mostrar gráficamente los índices de impureza para el rango de probabilidad [0, 1] para la clase 1. Ten en cuenta que también añadiremos una versión escalada de la entropía (entropía / 2) para observar que la impureza de Gini es una medida intermedia entre la entropía y el error de clasificación. El código es el siguiente:

>>> import matplotlib.pyplot as plt

>>> import numpy as np

>>> def gini(p):

... return (p)*(1 - (p)) + (1 - p)*(1 - (1-p))

>>> def entropy(p):

... return - p*np.log2(p) - (1 - p)*np.log2((1 - p))

>>> def error(p):

... return 1 - np.max([p, 1 - p])

>>> x = np.arange(0.0, 1.0, 0.01)

>>> ent = [entropy(p) if p != 0 else None for p in x]

>>> sc_ent = [e*0.5 if e else None for e in ent]

>>> err = [error(i) for i in x]

>>> fig = plt.figure()

>>> ax = plt.subplot(111)

>>> for i, lab, ls, c, in zip([ent, sc_ent, gini(x), err],

... ['Entropy', 'Entropy (scaled)',

Читать дальше
Тёмная тема
Сбросить

Интервал:

Закладка:

Сделать

Похожие книги на «Python Machine Learning»

Представляем Вашему вниманию похожие книги на «Python Machine Learning» списком для выбора. Мы отобрали схожую по названию и смыслу литературу в надежде предоставить читателям больше вариантов отыскать новые, интересные, ещё непрочитанные произведения.


Отзывы о книге «Python Machine Learning»

Обсуждение, отзывы о книге «Python Machine Learning» и просто собственные мнения читателей. Оставьте ваши комментарии, напишите, что Вы думаете о произведении, его смысле или главных героях. Укажите что конкретно понравилось, а что нет, и почему Вы так считаете.

x