Curso Completo de Inteligencia Artificial Desarrollo Detallado por Capítulos
- Get link
- X
- Other Apps
Curso Completo de Inteligencia Artificial
Desarrollo Detallado por Capítulos
CAPÍTULO 1: FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL
1.1 Introducción y Definición
¿Qué es la Inteligencia Artificial?
La Inteligencia Artificial (IA) es una disciplina científica que se dedica a crear sistemas computacionales capaces de realizar tareas que tradicionalmente requieren inteligencia humana. Estas tareas incluyen el reconocimiento de patrones, el aprendizaje, el razonamiento, la planificación, la percepción y la manipulación del lenguaje natural.
Definición Formal: La IA es el campo de estudio que se enfoca en la creación de agentes racionales que pueden percibir su entorno y tomar acciones que maximicen sus posibilidades de éxito en alguna tarea específica.
Características Fundamentales de la IA
- Autonomía: Capacidad de operar sin intervención humana directa
- Adaptabilidad: Habilidad para ajustarse a nuevas situaciones
- Interactividad: Capacidad de comunicarse con humanos y otros sistemas
- Racionalidad: Toma de decisiones basada en lógica y objetivos
Componentes Básicos de un Sistema de IA
- Sensores: Recopilan información del entorno
- Procesador: Analiza la información y toma decisiones
- Actuadores: Ejecutan las acciones decididas
- Base de Conocimiento: Almacena información y reglas
- Motor de Inferencia: Aplica reglas lógicas para llegar a conclusiones
1.2 Historia Detallada de la Inteligencia Artificial
Era Prehistórica (Antes de 1950)
Mitología y Filosofía Antigua
- Mitos griegos sobre autómatas (Talos, Pigmalión)
- Aristóteles y la lógica formal
- Al-Jazari y sus máquinas programables (siglo XIII)
Siglos XVII-XIX
- René Descartes y el dualismo mente-cuerpo
- Gottfried Leibniz y el cálculo lógico
- Charles Babbage y la Máquina Analítica
- George Boole y el álgebra booleana
Era Fundacional (1950-1956)
1950: El Test de Turing Alan Turing publica "Computing Machinery and Intelligence", proponiendo el famoso test que lleva su nombre. Este test evalúa si una máquina puede exhibir comportamiento inteligente indistinguible del humano.
Componentes del Test de Turing:
- Un humano (juez) interactúa con dos entidades ocultas
- Una es humana, la otra es una máquina
- Si el juez no puede distinguir cuál es cuál, la máquina "pasa" el test
1951-1955: Primeros Programas
- Christopher Strachey crea un programa de damas
- Arthur Samuel desarrolla un programa que aprende a jugar damas
- Logic Theorist de Newell y Simon (primer programa de IA)
Era Dorada (1956-1974)
1956: Conferencia de Dartmouth John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon organizan la conferencia que oficialmente da nacimiento al campo de la IA. Se acuña el término "Artificial Intelligence".
Logros Principales:
- 1957: Perceptrón de Frank Rosenblatt
- 1958: Lenguaje de programación LISP
- 1959: Programa General Problem Solver (GPS)
- 1965: ELIZA, el primer chatbot
- 1969: Shakey, el primer robot móvil inteligente
Optimismo Desmedido: Los investigadores predecían que en 20 años tendríamos máquinas con inteligencia humana general.
Primer Invierno de la IA (1974-1980)
Causas del Estancamiento:
- Limitaciones computacionales
- Problemas de escalabilidad
- Expectativas no cumplidas
- Reducción drástica de financiamiento
Informe Lighthill (1973): Crítica severa al progreso de la IA, especialmente en el Reino Unido.
Resurgimiento con Sistemas Expertos (1980-1987)
Sistemas Expertos: Programas que emulan la capacidad de toma de decisiones de expertos humanos en dominios específicos.
Ejemplos Exitosos:
- DENDRAL: Identificación de estructuras moleculares
- MYCIN: Diagnóstico de infecciones bacterianas
- XCON: Configuración de sistemas informáticos
Características:
- Base de conocimiento con reglas específicas del dominio
- Motor de inferencia para aplicar las reglas
- Interfaz de usuario para consultas
Segundo Invierno de la IA (1987-1993)
Colapso del Mercado de Sistemas Expertos:
- Mantenimiento costoso y difícil
- Limitaciones en el aprendizaje
- Competencia de hardware más barato
Era Moderna (1993-2011)
Cambio de Paradigma:
- Enfoque en métodos estadísticos y probabilísticos
- Mayor disponibilidad de datos
- Mejoras en poder computacional
Hitos Importantes:
- 1997: Deep Blue vence a Garry Kasparov en ajedrez
- 2005: Stanley gana el DARPA Grand Challenge
- 2011: Watson de IBM gana en Jeopardy!
Era del Deep Learning (2012-presente)
Revolución del Aprendizaje Profundo:
- 2012: AlexNet revoluciona la visión por computadora
- 2016: AlphaGo vence al campeón mundial de Go
- 2017: Aparición de los Transformers
- 2020: GPT-3 demuestra capacidades de lenguaje sorprendentes
- 2022: ChatGPT marca un antes y después en IA conversacional
1.3 Tipos de Inteligencia Artificial
Clasificación por Capacidades
IA Débil o Estrecha (Narrow AI)
Definición: Sistemas diseñados para realizar tareas específicas de manera experta.
Características:
- Dominio limitado y bien definido
- Alto rendimiento en su área específica
- No puede transferir conocimiento a otros dominios
- Es la única forma de IA que existe actualmente
Ejemplos:
- Sistemas de recomendación (Netflix, Spotify)
- Asistentes virtuales (Siri, Alexa)
- Sistemas de navegación GPS
- Filtros de spam
- Reconocimiento facial
- Traductores automáticos
IA General (AGI - Artificial General Intelligence)
Definición: Hipotética forma de IA que igualaría la capacidad cognitiva humana en todos los dominios.
Características Teóricas:
- Capacidad de aprender cualquier tarea intelectual humana
- Transferencia de conocimiento entre dominios
- Autoconciencia y comprensión
- Creatividad genuina
- Razonamiento abstracto
Estado Actual: No existe, es un objetivo de investigación a largo plazo.
Super IA (ASI - Artificial Super Intelligence)
Definición: Forma hipotética de IA que superaría significativamente la inteligencia humana en todos los aspectos.
Implicaciones Teóricas:
- Capacidades cognitivas vastamente superiores a las humanas
- Potencial para automejorase recursivamente
- Impacto transformador en la civilización
- Consideraciones existenciales importantes
Clasificación por Funcionalidad
IA Reactiva
- Responde a estímulos específicos
- No tiene memoria de experiencias pasadas
- Ejemplo: Deep Blue
IA con Memoria Limitada
- Utiliza experiencias pasadas para tomar decisiones
- Memoria temporal y específica para la tarea
- Ejemplo: Vehículos autónomos
IA con Teoría de la Mente
- Comprende que otros tienen creencias, deseos e intenciones
- Puede predecir comportamiento basado en estados mentales
- Actualmente en desarrollo
IA Autoconsciente
- Tiene conciencia de sí misma
- Comprende su propia existencia
- Completamente teórica
1.4 Campos Relacionados y Disciplinas Interdisciplinarias
Ciencias de la Computación
- Algoritmos y Complejidad: Fundamentos matemáticos
- Bases de Datos: Almacenamiento y recuperación de información
- Redes: Sistemas distribuidos y comunicación
- Seguridad: Protección de sistemas inteligentes
Matemáticas y Estadística
- Álgebra Lineal: Operaciones con matrices y vectores
- Cálculo: Optimización y derivadas
- Probabilidad: Modelado de incertidumbre
- Estadística: Análisis de datos y patrones
Neurociencia
- Estructura del Cerebro: Inspiración para redes neuronales
- Procesamiento de Información: Cómo el cerebro procesa datos
- Plasticidad: Adaptación y aprendizaje
Psicología Cognitiva
- Procesos Mentales: Memoria, atención, percepción
- Toma de Decisiones: Sesgos y heurísticas
- Aprendizaje Humano: Modelos de adquisición de conocimiento
Filosofía
- Filosofía de la Mente: Naturaleza de la conciencia
- Ética: Implicaciones morales de la IA
- Epistemología: Naturaleza del conocimiento
Lingüística
- Estructura del Lenguaje: Gramática y sintaxis
- Semántica: Significado y comprensión
- Pragmática: Uso del lenguaje en contexto
CAPÍTULO 2: MACHINE LEARNING (APRENDIZAJE AUTOMÁTICO)
2.1 Fundamentos del Machine Learning
Definición y Conceptos Básicos
Machine Learning es una rama de la IA que permite a los sistemas aprender y mejorar automáticamente a partir de la experiencia sin ser programados explícitamente para cada tarea específica.
Definición Formal: El ML es el estudio de algoritmos y modelos estadísticos que los sistemas informáticos utilizan para realizar efectivamente una tarea específica sin usar instrucciones explícitas, confiando en cambio en patrones e inferencias.
Elementos Fundamentales del ML
Datos (Data)
Los datos son el combustible del machine learning. Sin datos de calidad, ningún algoritmo puede funcionar efectivamente.
Tipos de Datos:
- Estructurados: Tablas, bases de datos relacionales
- No estructurados: Texto, imágenes, audio, video
- Semi-estructurados: JSON, XML
Calidad de los Datos:
- Completitud: Ausencia de valores faltantes
- Consistencia: Uniformidad en formato y escala
- Precisión: Corrección de la información
- Relevancia: Pertinencia para el problema
Algoritmos (Algorithms)
Son los métodos matemáticos y estadísticos que procesan los datos para encontrar patrones.
Modelos (Models)
Un modelo es el resultado de entrenar un algoritmo con datos. Es la representación aprendida de los patrones en los datos.
Características (Features)
Variables individuales medibles de un fenómeno observado.
Etiquetas (Labels)
En aprendizaje supervisado, son las respuestas correctas que el modelo debe predecir.
El Proceso de Machine Learning
1. Definición del Problema
- Identificar el tipo de problema (clasificación, regresión, clustering)
- Definir métricas de éxito
- Establecer restricciones y limitaciones
2. Recolección y Preparación de Datos
- Recolección: Obtener datos relevantes
- Limpieza: Eliminar errores y inconsistencias
- Transformación: Normalización, codificación
- División: Conjuntos de entrenamiento, validación y prueba
3. Exploración de Datos (EDA - Exploratory Data Analysis)
- Análisis estadístico descriptivo
- Visualizaciones
- Identificación de patrones y anomalías
- Correlaciones entre variables
4. Selección de Características
- Identificar las variables más relevantes
- Reducción de dimensionalidad
- Ingeniería de características (feature engineering)
5. Selección del Modelo
- Evaluar diferentes algoritmos
- Considerar la complejidad computacional
- Balancear precisión vs interpretabilidad
6. Entrenamiento del Modelo
- Ajustar parámetros del modelo a los datos
- Optimización de función de costo
- Iteración hasta convergencia
7. Evaluación del Modelo
- Métricas de rendimiento
- Validación cruzada
- Análisis de errores
8. Mejora del Modelo
- Ajuste de hiperparámetros
- Regularización
- Ensemble methods
9. Despliegue
- Implementación en producción
- Monitoreo continuo
- Mantenimiento y actualización
2.2 Tipos de Machine Learning
Aprendizaje Supervisado (Supervised Learning)
Definición
El algoritmo aprende de un conjunto de datos de entrenamiento que incluye tanto las características (features) como las etiquetas (labels) correctas.
Características Principales
- Requiere datos etiquetados
- Objetivo: predecir etiquetas para nuevos datos
- Evaluación basada en precisión de predicciones
Tipos de Problemas
Clasificación
Objetivo: Predecir categorías o clases discretas.
Tipos de Clasificación:
Clasificación Binaria:
- Dos clases posibles (0/1, Sí/No, Spam/No Spam)
- Ejemplos: Detección de fraude, diagnóstico médico
Clasificación Multiclase:
- Múltiples clases mutuamente excluyentes
- Ejemplos: Reconocimiento de dígitos (0-9), clasificación de especies
Clasificación Multilabel:
- Múltiples etiquetas pueden ser verdaderas simultáneamente
- Ejemplos: Etiquetado de imágenes, clasificación de géneros musicales
Métricas de Evaluación para Clasificación:
- Precisión (Accuracy): (TP + TN) / (TP + TN + FP + FN)
- Precisión (Precision): TP / (TP + FP)
- Sensibilidad/Recall: TP / (TP + FN)
- F1-Score: 2 × (Precision × Recall) / (Precision + Recall)
- ROC-AUC: Área bajo la curva ROC
Regresión
Objetivo: Predecir valores numéricos continuos.
Tipos de Regresión:
- Regresión Lineal: Relación lineal entre variables
- Regresión Polinomial: Relaciones no lineales
- Regresión Logística: Para problemas de clasificación
Ejemplos: Predicción de precios, temperatura, ingresos
Métricas de Evaluación para Regresión:
- MAE (Mean Absolute Error): Promedio de errores absolutos
- MSE (Mean Squared Error): Promedio de errores cuadráticos
- RMSE (Root Mean Squared Error): Raíz cuadrada de MSE
- R² (Coeficiente de Determinación): Proporción de varianza explicada
Algoritmos de Aprendizaje Supervisado
1. Regresión Lineal
Concepto: Encuentra la mejor línea recta que ajusta los datos.
Ecuación: y = mx + b (caso simple), Y = β₀ + β₁X₁ + β₂X₂ + ... + βₙXₙ (caso múltiple)
Ventajas:
- Simple e interpretable
- Rápido de entrenar
- No requiere mucha memoria
Desventajas:
- Asume relación lineal
- Sensible a outliers
- Problemas con multicolinealidad
Aplicaciones: Predicción de ventas, análisis financiero, estudios económicos
2. Regresión Logística
Concepto: Utiliza la función logística para modelar probabilidades.
Función Logística: p = 1 / (1 + e^(-z))
Ventajas:
- Proporciona probabilidades
- No requiere escalado de características
- Menos propenso al overfitting
Desventajas:
- Asume relación lineal entre características y log-odds
- Sensible a outliers
Aplicaciones: Marketing, medicina, ciencias sociales
3. Árboles de Decisión
Concepto: Modelo que toma decisiones siguiendo un conjunto de reglas en estructura de árbol.
Componentes:
- Nodo raíz: Punto de inicio
- Nodos internos: Decisiones/pruebas
- Hojas: Resultados finales
- Ramas: Conexiones entre nodos
Algoritmos de División:
- Ganancia de Información: Basada en entropía
- Índice Gini: Medida de impureza
- Chi-cuadrado: Para variables categóricas
Ventajas:
- Fácil de interpretar
- No requiere preparación extensive de datos
- Maneja características categóricas y numéricas
Desventajas:
- Propenso al overfitting
- Inestable (pequeños cambios en datos pueden cambiar mucho el árbol)
- Sesgo hacia características con más valores
Aplicaciones: Diagnóstico médico, análisis crediticio, sistemas de recomendación
4. Random Forest
Concepto: Ensemble de múltiples árboles de decisión.
Proceso:
- Bootstrap sampling de datos
- Selección aleatoria de características en cada división
- Entrenamiento de múltiples árboles
- Votación (clasificación) o promedio (regresión)
Ventajas:
- Reduce overfitting comparado con árboles individuales
- Maneja datos faltantes
- Proporciona importancia de características
Desventajas:
- Menos interpretable que árboles individuales
- Puede hacer overfitting con datos muy ruidosos
5. Support Vector Machines (SVM)
Concepto: Encuentra el hiperplano óptimo que separa las clases con el margen máximo.
Elementos Clave:
- Vectores de Soporte: Puntos más cercanos al hiperplano
- Margen: Distancia entre el hiperplano y los vectores de soporte
- Kernel Trick: Transformación a dimensiones superiores
Tipos de Kernels:
- Lineal: Para datos linealmente separables
- Polinomial: Para relaciones polinomiales
- RBF (Radial Basis Function): Para patrones complejos
- Sigmoide: Similar a redes neuronales
Ventajas:
- Efectivo en espacios de alta dimensión
- Uso eficiente de memoria
- Versátil con diferentes kernels
Desventajas:
- Lento en conjuntos de datos grandes
- Sensible a escalado de características
- No proporciona estimaciones de probabilidad directamente
6. K-Nearest Neighbors (KNN)
Concepto: Clasifica basándose en la mayoría de los k vecinos más cercanos.
Proceso:
- Calcular distancia a todos los puntos de entrenamiento
- Seleccionar k vecinos más cercanos
- Votar (clasificación) o promediar (regresión)
Métricas de Distancia:
- Euclidiana: √[(x₁-x₂)² + (y₁-y₂)²]
- Manhattan: |x₁-x₂| + |y₁-y₂|
- Minkowski: Generalización de las anteriores
Ventajas:
- Simple de entender e implementar
- No hace suposiciones sobre la distribución de datos
- Funciona bien con pequeños conjuntos de datos
Desventajas:
- Computacionalmente costoso para predicción
- Sensible a características irrelevantes
- Requiere selección cuidadosa de k
7. Naive Bayes
Concepto: Basado en el teorema de Bayes con la "ingenua" suposición de independencia entre características.
Teorema de Bayes: P(A|B) = P(B|A) × P(A) / P(B)
Tipos:
- Gaussian Naive Bayes: Para características continuas
- Multinomial Naive Bayes: Para conteos (texto)
- Bernoulli Naive Bayes: Para características binarias
Ventajas:
- Rápido y simple
- Funciona bien con pequeños conjuntos de datos
- No es sensible a características irrelevantes
Desventajas:
- Fuerte suposición de independencia
- Puede ser superado por algoritmos más sofisticados
Aplicaciones: Filtrado de spam, análisis de sentimientos, clasificación de texto
Aprendizaje No Supervisado (Unsupervised Learning)
Definición
Los algoritmos trabajan con datos que no tienen etiquetas, buscando patrones ocultos o estructuras subyacentes en los datos.
Características Principales
- No requiere datos etiquetados
- Objetivo: descubrir estructura oculta en datos
- Evaluación más subjetiva y dependiente del dominio
Tipos de Problemas
Clustering (Agrupamiento)
Objetivo: Agrupar datos similares en clusters.
Algoritmos Principales:
K-Means:
- Particiona datos en k clusters
- Minimiza la suma de distancias cuadráticas dentro de clusters
- Requiere especificar número de clusters
Proceso:
- Seleccionar k centroides iniciales
- Asignar cada punto al centroide más cercano
- Recalcular centroides
- Repetir hasta convergencia
Ventajas:
- Simple y eficiente
- Funciona bien con clusters esféricos
Desventajas:
- Requiere especificar k
- Sensible a inicialización
- Asume clusters de tamaño similar
Hierarchical Clustering:
- Crea jerarquía de clusters
- No requiere especificar número de clusters
Tipos:
- Aglomerativo: Bottom-up (une clusters)
- Divisivo: Top-down (divide clusters)
DBSCAN (Density-Based Spatial Clustering):
- Agrupa puntos densos
- Identifica outliers automáticamente
- No requiere especificar número de clusters
Parámetros:
- eps: Radio de vecindad
- min_samples: Mínimo de puntos para formar cluster
Reducción de Dimensionalidad
Objetivo: Reducir el número de características manteniendo información importante.
Principal Component Analysis (PCA):
- Encuentra direcciones de máxima varianza
- Transforma datos a un espacio de menor dimensión
- Componentes principales son combinaciones lineales de características originales
Proceso:
- Estandarizar datos
- Calcular matriz de covarianza
- Encontrar vectores y valores propios
- Seleccionar componentes principales
- Transformar datos
t-SNE (t-Distributed Stochastic Neighbor Embedding):
- Especializado en visualización
- Preserva relaciones locales
- No lineal
Linear Discriminant Analysis (LDA):
- Reducción de dimensionalidad supervisada
- Maximiza separación entre clases
Detección de Anomalías
Objetivo: Identificar puntos de datos que son significativamente diferentes del resto.
Métodos:
- Statistical: Basados en distribuciones
- Isolation Forest: Aísla anomalías
- One-Class SVM: Encuentra región normal
- Autoencoders: Redes neuronales para reconstrucción
Aplicaciones: Detección de fraude, monitoreo de sistemas, control de calidad
Reglas de Asociación
Objetivo: Encontrar relaciones entre diferentes elementos.
Conceptos Clave:
- Soporte: Frecuencia de aparición
- Confianza: Probabilidad condicional
- Lift: Mejora sobre predicción aleatoria
Algoritmos:
- Apriori: Generación iterativa de conjuntos frecuentes
- FP-Growth: Basado en árboles FP
Aplicaciones: Análisis de canasta de mercado, sistemas de recomendación
Aprendizaje por Refuerzo (Reinforcement Learning)
Definición
El agente aprende a tomar decisiones mediante la interacción con un entorno, recibiendo recompensas o castigos por sus acciones.
Componentes Fundamentales
Agente
Entidad que toma decisiones y realiza acciones.
Entorno
Todo lo que está fuera del agente y con lo que interactúa.
Estado (State)
Descripción completa de la situación actual del entorno.
Acción (Action)
Conjunto de todos los movimientos posibles que puede hacer el agente.
Recompensa (Reward)
Señal numérica que indica qué tan buena fue la acción tomada.
Política (Policy)
Estrategia que define qué acción tomar en cada estado.
Proceso del Aprendizaje por Refuerzo
- Observación: Agente observa el estado actual
- Acción: Agente selecciona y ejecuta una acción
- Recompensa: Entorno proporciona recompensa
- Transición: Entorno cambia a nuevo estado
- Aprendizaje: Agente actualiza su conocimiento
- Repetición: El proceso continúa
Conceptos Matemáticos Clave
Función de Valor
V^π(s): Valor esperado de estar en estado s siguiendo política π
Función Q
Q^π(s,a): Valor esperado de tomar acción a en estado s siguiendo política π
Ecuación de Bellman
Relación recursiva que conecta el valor de un estado con los valores de estados futuros.
Algoritmos Principales
Q-Learning
- Tipo: Model-free, off-policy
- Objetivo: Aprender función Q óptima
- Actualización: Q(s,a) ← Q(s,a) + α[r + γ max Q(s',a') - Q(s,a)]
Ventajas:
- No requiere modelo del entorno
- Garantiza convergencia bajo ciertas condiciones
Desventajas:
- Requiere tabla Q (problemas con espacios grandes)
- Exploración vs explotación
SARSA (State-Action-Reward-State-Action)
- Tipo: Model-free, on-policy
- Actualización: Q(s,a) ← Q(s,a) + α[r + γ Q(s',a') - Q(s,a)]
Deep Q-Networks (DQN)
- Combina Q-learning con redes neuronales profundas
- Maneja espacios de estado de alta dimensión
- Utiliza experience replay y target networks
Policy Gradient Methods
- Optimizan directamente la política
- Funcionan con espacios de acción continuos
- Ejemplos: REINFORCE, Actor-Critic, PPO
Estrategias de Exploración
ε-greedy
- Con probabilidad ε, toma acción aleatoria
- Con probabilidad (1-ε), toma mejor acción conocida
Upper Confidence Bound (UCB)
- Balancea exploración y explotación usando incertidumbre
Thompson Sampling
- Método bayesiano para balance exploración-explotación
Aplicaciones
- Juegos (AlphaGo, OpenAI Five)
- Robótica
- Sistemas de recomendación
- Trading algorítmico
- Vehículos autónomos
2.3 Evaluación y Validación de Modelos
Conceptos Fundamentales
Overfitting (Sobreajuste)
Definición: Cuando un modelo aprende demasiado bien los datos de entrenamiento, incluyendo ruido y detalles específicos, perdiendo capacidad de generalización.
Características:
- Alto rendimiento en datos de entrenamiento
- Bajo rendimiento en datos nuevos
- Modelo demasiado complejo para los datos disponibles
Causas:
- Modelo muy complejo
- Pocos datos de entrenamiento
- Entrenamiento excesivo
- Características irrelevantes
Underfitting (Subajuste)
Definición: Cuando un modelo es demasiado simple para capturar los patrones subyacentes en los datos.
Características:
- Bajo rendimiento tanto en entrenamiento como en prueba
- Modelo demasiado simple
- No captura la relación entre características y objetivo
Bias-Variance Tradeoff
Bias (Sesgo)
Error introducido por la simplificación del modelo.
- Alto Bias: Modelo demasiado simple (underfitting)
- Bajo Bias: Modelo puede capturar patrones complejos
Variance (Varianza)
Sensibilidad del modelo a pequeños cambios en los datos de entrenamiento.
- Alta Varianza: Modelo muy sensible a datos (overfitting)
- Baja Varianza: Modelo consistente
Error Total
Error Total = Bias² + Variance + Irreducible Error
Técnicas de Validación
Holdout Validation
Proceso:
- Dividir datos en entrenamiento y prueba (típicamente 70/30 o 80/20)
- Entrenar modelo con datos de entrenamiento
- Evaluar con datos de prueba
Ventajas:
- Simple y rápido
- Apropiado para conjuntos de datos grandes
Desventajas:
- Resultado depende de la división específica
- Puede desperdiciar datos
K-Fold Cross Validation
Proceso:
- Dividir datos en k subconjuntos (folds)
- Para cada fold:
- Usar como conjunto de prueba
- Usar resto como entrenamiento
- Pro
- Get link
- X
- Other Apps
Comments
Post a Comment