Tratar un caso separable no lineal con variables flexibles
Implementaciones alternativas en scikit-learn
Resolver problemas no lineales con una SVM kernelizada
Métodos kernel para datos inseparables lineales
El truco de kernel para encontrar hiperplanos separados en un espacio de mayor dimensionalidad
Aprendizaje basado en árboles de decisión
Maximizar la ganancia de información: sacar el mayor partido de tu inversión
Crear un árbol de decisión
Combinar árboles de decisión múltiples mediante bosques aleatorios
K-vecinos más cercanos: un algoritmo de aprendizaje vago
Resumen
Capítulo 4: Generar buenos modelos de entrenamiento: preprocesamiento de datos
Tratar con datos ausentes
Eliminar muestras o características con valores ausentes
Imputar valores ausentes
Entender la API de estimador de scikit-learn
Trabajar con datos categóricos
Características nominales y ordinales
Crear un conjunto de datos de ejemplo
Mapear características ordinales
Codificar etiquetas de clase
Realizar una codificación en caliente sobre características nominales
Dividir un conjunto de datos en conjuntos de prueba y de entrenamiento individuales
Ajustar las características a la misma escala
Seleccionar características significativas
Una interpretación geométrica de la regularización L2
Soluciones dispersas con la regularización L1
Algoritmos de selección de características secuenciales
Evaluar la importancia de las características con bosques aleatorios
Resumen
Capítulo 5: Comprimir datos mediante la reducción de dimensionalidad
Reducción de dimensionalidad sin supervisión mediante el análisis de componentes principales
Los pasos esenciales que se esconden detrás del análisis de componentes principales
Extraer los componentes principales paso a paso
Varianza total y explicada
Transformación de características
Análisis de componentes principales en scikit-learn
Compresión de datos supervisada mediante análisis discriminante lineal
Análisis de componentes principales frente a análisis discriminante lineal
Cómo funciona interiormente el análisis discriminante lineal
Calcular las matrices de dispersión
Seleccionar discriminantes lineales para el nuevo subespacio de características
Proyectar muestras en el nuevo espacio de características
ADL con scikit-learn
Utilizar el análisis de componentes principales con kernels para mapeos no lineales
Funciones kernel y el truco del kernel
Implementar un análisis de componentes principales con kernels en Python
Ejemplo 1: separar formas de media luna
Ejemplo 2: separar círculos concéntricos
Proyectar nuevos puntos de datos
Análisis de componentes principales con kernel en scikit-learn
Resumen
Capítulo 6: Aprender las buenas prácticas para la evaluación de modelos y el ajuste de hiperparámetros
Simplificar flujos de trabajo con pipelines
Combinar transformadores y estimadores en un pipeline
Utilizar la validación cruzada de K iteraciones para evaluar el rendimiento de un modelo
El método de retención
Validación cruzada de k iteraciones
Depurar algoritmos con curvas de validación y aprendizaje
Diagnosticar problemas de sesgo y varianza con curvas de aprendizaje
Resolver el sobreajuste y el subajuste con curvas de validación
Ajustar los modelos de aprendizaje automático con la búsqueda de cuadrículas
Ajustar hiperparámetros con la búsqueda de cuadrículas
Selección de algoritmos con validación cruzada anidada
Observar diferentes métricas de evaluación de rendimiento
Leer una matriz de confusión
Optimizar la exactitud y la exhaustividad de un modelo de clasificación
Representar una característica operativa del receptor
Métricas de calificación para clasificaciones multiclase
Tratar con el desequilibrio de clases
Resumen
Capítulo 7: Combinar diferentes modelos para el aprendizaje conjunto
Aprender con conjuntos
Combinar clasificadores mediante el voto mayoritario
Implementar un sencillo clasificador de voto mayoritario
Utilizar el principio de voto mayoritario para hacer predicciones
Evaluar y ajustar el clasificador conjunto
Bagging: construir un conjunto de clasificadores a partir de muestras bootstrap
El bagging resumido
Aplicar el bagging para clasificar muestras en el conjunto de datos Wine
Potenciar los clasificadores débiles con el boosting adaptado
Cómo trabaja el boosting
Aplicar AdaBoost con scikit-learn
Resumen
Capítulo 8: Aplicar el aprendizaje automático para el análisis de sentimiento
Preparar los datos de críticas de cine de IMDb para el procesamiento de texto
Obtener el conjunto de datos de críticas de cine
Preprocesar el conjunto de datos de películas en un formato adecuado
Introducir el modelo «bolsa de palabras»
Transformar palabras en vectores de características
Relevancia de las palabras mediante frecuencia de término–frecuencia inversa de documento
Limpiar datos textuales
Procesar documentos en componentes léxicos
Entrenar un modelo de regresión logística para clasificación de documentos
Trabajar con datos más grandes: algoritmos online y aprendizaje out-of-core
Modelado de temas con Latent Dirichlet Allocation
Descomponer documentos de textos con LDA
LDA con scikit-learn
Resumen
Capítulo 9: Incrustar un modelo de aprendizaje automático en una aplicación web
Serializar estimadores de scikit-learn ajustados
Configurar una base de datos SQLite para el almacenamiento de datos
Desarrollar una aplicación web con Flask
Nuestra primera aplicación web con Flask
Validación y renderizado de formularios
Configurar la estructura del directorio
Implementar una macro mediante el motor de plantillas Jinja2
Añadir estilos con CSS
Crear la página resultante
Convertir el clasificador de críticas de cine en una aplicación web
Archivos y carpetas: observar el árbol de directorios
Implementar la aplicación principal como app.py
Preparar el formulario de críticas
Crear una plantilla de página de resultados
Desplegar la aplicación web en un servidor público
Crear una cuenta de PythonAnywhere
Cargar la aplicación del clasificador de películas
Actualizar el clasificador de películas
Resumen
Capítulo 10: Predicción de variables de destino continuas con análisis de regresión
Introducción a la regresión lineal
Regresión lineal simple
Regresión lineal múltiple
Explorar el conjunto de datos Housing
Cargar el conjunto Housing en un marco de datos
Visualizar las características importantes de un conjunto de datos
Observar las relaciones mediante una matriz de correlación
Implementar un modelo de regresión lineal de mínimos cuadrados ordinarios
Resolver la regresión para parámetros de regresión con el descenso del gradiente
Estimar el coeficiente de un modelo de regresión con scikit-learn
Ajustar un modelo de regresión robusto con RANSAC
Evaluar el rendimiento de los modelos de regresión lineal
Utilizar métodos regularizados para regresión
Convertir un modelo de regresión lineal en una curva: la regresión polinomial
Añadir términos polinomiales con scikit-learn
Modelar relaciones no lineales en el conjunto de datos Housing
Tratar con relaciones no lineales mediante bosques aleatorios
Regresión de árbol de decisión
Читать дальше