Video: Trading con Fibonacci. Aprende el SECRETO del trading con Fibonacci // Josan Trader 2024
Parte de Machine Learning For Dummies Cheat Sheet < El aprendizaje automático implica el uso de muchos algoritmos diferentes. Esta tabla le brinda un resumen rápido de las fortalezas y debilidades de varios algoritmos.
Algoritmo
Mejor con | Pros | Contras | Random Forest |
Apto para casi cualquier problema de aprendizaje automático | Bioinformática
Puede trabajar en paralelo |
Raramente overfits > Maneja automáticamente valores perdidos
No es necesario transformar ninguna variable No es necesario modificar los parámetros Puede ser utilizado por casi cualquier persona con excelentes resultados Difícil de interpretar Más débil en la regresión al estimar valores en los extremos de la distribución de los valores de respuesta |
Sesgo en problemas multiclase hacia clases más frecuentes
Incremento de gradiente Apto en casi cualquier problema de aprendizaje automático |
Motores de búsqueda (resolviendo el problema de aprender a clasificar) > Puede aproximarse a la mayoría de las funciones no lineales | El mejor predictor de clase
Maneja automáticamente valores faltantes |
No necesita transformar ninguna variable
Puede sobreajustarse si se ejecuta para demasiadas iteraciones Sensible a datos ruidosos y valores atípicos No funciona bien sin ajuste de parámetros |
Regresión lineal
Predicción de línea base Predicciones econométricas |
Modelado de respuestas de marketing | Fácil de entender y explicar
Raras veces se sobrevalora El uso de la regularización L1 y L2 es efectivo en la selección de características |
Rápido de entrenar
Fácil entrena en grandes datos gracias a su versión estocástica Tienes que trabajar duro para que se ajuste a las funciones no lineales Puede sufrir valores atípicos Soporte de máquinas vectoriales |
Reconocimiento de caracteres
Reconocimiento de imágenes |
Texto clasificación | Creación automática de características no lineales
Puede aproximar funciones no lineales complejas Difícil de interpretar cuando se aplican núcleos no lineales |
Sufre de demasiados ejemplos, después de 10, 000 ejemplos comienza a tardar demasiado en capacitar
Vecindario K Vecinos |
Visión por computadora
Etiquetado multilabel |
Sistemas de recomendación | Problemas ortográficos
Capacitación rápida y perezosa Maneja problemas extremamente multiclase (como etiquetado de texto) Lento y engorroso en la fase de predicción |
Puede fallar en predecir corr ectly debido a la maldición de la dimensionalidad
Adaboost |
Detección de rostros
Maneja automáticamente valores faltantes |
No es necesario transformar ninguna variable | No se sobrepone fácilmente | Pocos parámetros para ajustar > Puede aprovechar muchos estudiantes débiles diferentes
Sensible a datos ruidosos y valores atípicos Nunca las mejores predicciones de su clase Naive Bayes Reconocimiento facial |
Análisis de sentimiento
Detección de correo no deseado |
Clasificación de texto | Fácil y rápida de implementar, no requiere demasiada memoria y puede usarse para aprendizaje en línea
Fácil de entender Tiene en cuenta el conocimiento previo Suposiciones de independencia de características fuertes y poco realistas > No logra estimar las ocurrencias raras |
Tiene características irrelevantes
Redes neuronales Reconocimiento de imágenes |
Reconocimiento y traducción de idiomas
Reconocimiento de voz Reconocimiento de visión |
Puede aproximarse a cualquier función no lineal | Robusto con valores atípicos
Funciona solo con una parte de los ejemplos (el vector de soporte) s) Muy difícil de configurar Difícil de ajustar debido a demasiados parámetros y también tiene que decidir la arquitectura de la red |
Difícil de interpretar
Fácil de sobreagregar Regresión logística < Ordenar resultados por probabilidad |
Modelar respuestas de mercadotecnia
Fácil de entender y explicar Raramente overfits Usar la regularización L1 y L2 es efectivo en la selección de características |
El mejor algoritmo para predecir probabilidades de evento | Rápido de entrenar
Fácil de entrenar en big data gracias a su versión estocástica |
Tiene que trabajar duro para que se ajuste a funciones no lineales
Puede sufrir valores atípicos SVD Recommender sistemas Puede reestructurar datos de manera significativa Difícil de entender por qué los datos se han reestructurado de cierta manera |
PCA
Eliminación de colinealidad |
Reducción de dimensiones del conjunto de datos | Puede reducir la dimensionalidad de los datos | Implica suposiciones lineales fuertes (los componentes son una suma ponderada de características) K-means | Segmentación |
Rápido para encontrar clusters | Puede detectar valores atípicos en múltiples dimensiones
Sufre de multicolinealidad |
Los clusters son esféricos, no pueden detectar grupos de otras formas | Inestables soluciones, depende de la inicialización |
|