Curso Completo de Inteligencia Artificial Desarrollo Detallado por Capítulos

Curso Completo de Inteligencia Artificial

Desarrollo Detallado por Capítulos


CAPÍTULO 1: FUNDAMENTOS DE LA INTELIGENCIA ARTIFICIAL

1.1 Introducción y Definición

¿Qué es la Inteligencia Artificial?

La Inteligencia Artificial (IA) es una disciplina científica que se dedica a crear sistemas computacionales capaces de realizar tareas que tradicionalmente requieren inteligencia humana. Estas tareas incluyen el reconocimiento de patrones, el aprendizaje, el razonamiento, la planificación, la percepción y la manipulación del lenguaje natural.

Definición Formal: La IA es el campo de estudio que se enfoca en la creación de agentes racionales que pueden percibir su entorno y tomar acciones que maximicen sus posibilidades de éxito en alguna tarea específica.

Características Fundamentales de la IA

  1. Autonomía: Capacidad de operar sin intervención humana directa
  2. Adaptabilidad: Habilidad para ajustarse a nuevas situaciones
  3. Interactividad: Capacidad de comunicarse con humanos y otros sistemas
  4. Racionalidad: Toma de decisiones basada en lógica y objetivos

Componentes Básicos de un Sistema de IA

  • Sensores: Recopilan información del entorno
  • Procesador: Analiza la información y toma decisiones
  • Actuadores: Ejecutan las acciones decididas
  • Base de Conocimiento: Almacena información y reglas
  • Motor de Inferencia: Aplica reglas lógicas para llegar a conclusiones

1.2 Historia Detallada de la Inteligencia Artificial

Era Prehistórica (Antes de 1950)

Mitología y Filosofía Antigua

  • Mitos griegos sobre autómatas (Talos, Pigmalión)
  • Aristóteles y la lógica formal
  • Al-Jazari y sus máquinas programables (siglo XIII)

Siglos XVII-XIX

  • René Descartes y el dualismo mente-cuerpo
  • Gottfried Leibniz y el cálculo lógico
  • Charles Babbage y la Máquina Analítica
  • George Boole y el álgebra booleana

Era Fundacional (1950-1956)

1950: El Test de Turing Alan Turing publica "Computing Machinery and Intelligence", proponiendo el famoso test que lleva su nombre. Este test evalúa si una máquina puede exhibir comportamiento inteligente indistinguible del humano.

Componentes del Test de Turing:

  • Un humano (juez) interactúa con dos entidades ocultas
  • Una es humana, la otra es una máquina
  • Si el juez no puede distinguir cuál es cuál, la máquina "pasa" el test

1951-1955: Primeros Programas

  • Christopher Strachey crea un programa de damas
  • Arthur Samuel desarrolla un programa que aprende a jugar damas
  • Logic Theorist de Newell y Simon (primer programa de IA)

Era Dorada (1956-1974)

1956: Conferencia de Dartmouth John McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon organizan la conferencia que oficialmente da nacimiento al campo de la IA. Se acuña el término "Artificial Intelligence".

Logros Principales:

  • 1957: Perceptrón de Frank Rosenblatt
  • 1958: Lenguaje de programación LISP
  • 1959: Programa General Problem Solver (GPS)
  • 1965: ELIZA, el primer chatbot
  • 1969: Shakey, el primer robot móvil inteligente

Optimismo Desmedido: Los investigadores predecían que en 20 años tendríamos máquinas con inteligencia humana general.

Primer Invierno de la IA (1974-1980)

Causas del Estancamiento:

  • Limitaciones computacionales
  • Problemas de escalabilidad
  • Expectativas no cumplidas
  • Reducción drástica de financiamiento

Informe Lighthill (1973): Crítica severa al progreso de la IA, especialmente en el Reino Unido.

Resurgimiento con Sistemas Expertos (1980-1987)

Sistemas Expertos: Programas que emulan la capacidad de toma de decisiones de expertos humanos en dominios específicos.

Ejemplos Exitosos:

  • DENDRAL: Identificación de estructuras moleculares
  • MYCIN: Diagnóstico de infecciones bacterianas
  • XCON: Configuración de sistemas informáticos

Características:

  • Base de conocimiento con reglas específicas del dominio
  • Motor de inferencia para aplicar las reglas
  • Interfaz de usuario para consultas

Segundo Invierno de la IA (1987-1993)

Colapso del Mercado de Sistemas Expertos:

  • Mantenimiento costoso y difícil
  • Limitaciones en el aprendizaje
  • Competencia de hardware más barato

Era Moderna (1993-2011)

Cambio de Paradigma:

  • Enfoque en métodos estadísticos y probabilísticos
  • Mayor disponibilidad de datos
  • Mejoras en poder computacional

Hitos Importantes:

  • 1997: Deep Blue vence a Garry Kasparov en ajedrez
  • 2005: Stanley gana el DARPA Grand Challenge
  • 2011: Watson de IBM gana en Jeopardy!

Era del Deep Learning (2012-presente)

Revolución del Aprendizaje Profundo:

  • 2012: AlexNet revoluciona la visión por computadora
  • 2016: AlphaGo vence al campeón mundial de Go
  • 2017: Aparición de los Transformers
  • 2020: GPT-3 demuestra capacidades de lenguaje sorprendentes
  • 2022: ChatGPT marca un antes y después en IA conversacional

1.3 Tipos de Inteligencia Artificial

Clasificación por Capacidades

IA Débil o Estrecha (Narrow AI)

Definición: Sistemas diseñados para realizar tareas específicas de manera experta.

Características:

  • Dominio limitado y bien definido
  • Alto rendimiento en su área específica
  • No puede transferir conocimiento a otros dominios
  • Es la única forma de IA que existe actualmente

Ejemplos:

  • Sistemas de recomendación (Netflix, Spotify)
  • Asistentes virtuales (Siri, Alexa)
  • Sistemas de navegación GPS
  • Filtros de spam
  • Reconocimiento facial
  • Traductores automáticos

IA General (AGI - Artificial General Intelligence)

Definición: Hipotética forma de IA que igualaría la capacidad cognitiva humana en todos los dominios.

Características Teóricas:

  • Capacidad de aprender cualquier tarea intelectual humana
  • Transferencia de conocimiento entre dominios
  • Autoconciencia y comprensión
  • Creatividad genuina
  • Razonamiento abstracto

Estado Actual: No existe, es un objetivo de investigación a largo plazo.

Super IA (ASI - Artificial Super Intelligence)

Definición: Forma hipotética de IA que superaría significativamente la inteligencia humana en todos los aspectos.

Implicaciones Teóricas:

  • Capacidades cognitivas vastamente superiores a las humanas
  • Potencial para automejorase recursivamente
  • Impacto transformador en la civilización
  • Consideraciones existenciales importantes

Clasificación por Funcionalidad

IA Reactiva

  • Responde a estímulos específicos
  • No tiene memoria de experiencias pasadas
  • Ejemplo: Deep Blue

IA con Memoria Limitada

  • Utiliza experiencias pasadas para tomar decisiones
  • Memoria temporal y específica para la tarea
  • Ejemplo: Vehículos autónomos

IA con Teoría de la Mente

  • Comprende que otros tienen creencias, deseos e intenciones
  • Puede predecir comportamiento basado en estados mentales
  • Actualmente en desarrollo

IA Autoconsciente

  • Tiene conciencia de sí misma
  • Comprende su propia existencia
  • Completamente teórica

1.4 Campos Relacionados y Disciplinas Interdisciplinarias

Ciencias de la Computación

  • Algoritmos y Complejidad: Fundamentos matemáticos
  • Bases de Datos: Almacenamiento y recuperación de información
  • Redes: Sistemas distribuidos y comunicación
  • Seguridad: Protección de sistemas inteligentes

Matemáticas y Estadística

  • Álgebra Lineal: Operaciones con matrices y vectores
  • Cálculo: Optimización y derivadas
  • Probabilidad: Modelado de incertidumbre
  • Estadística: Análisis de datos y patrones

Neurociencia

  • Estructura del Cerebro: Inspiración para redes neuronales
  • Procesamiento de Información: Cómo el cerebro procesa datos
  • Plasticidad: Adaptación y aprendizaje

Psicología Cognitiva

  • Procesos Mentales: Memoria, atención, percepción
  • Toma de Decisiones: Sesgos y heurísticas
  • Aprendizaje Humano: Modelos de adquisición de conocimiento

Filosofía

  • Filosofía de la Mente: Naturaleza de la conciencia
  • Ética: Implicaciones morales de la IA
  • Epistemología: Naturaleza del conocimiento

Lingüística

  • Estructura del Lenguaje: Gramática y sintaxis
  • Semántica: Significado y comprensión
  • Pragmática: Uso del lenguaje en contexto

CAPÍTULO 2: MACHINE LEARNING (APRENDIZAJE AUTOMÁTICO)

2.1 Fundamentos del Machine Learning

Definición y Conceptos Básicos

Machine Learning es una rama de la IA que permite a los sistemas aprender y mejorar automáticamente a partir de la experiencia sin ser programados explícitamente para cada tarea específica.

Definición Formal: El ML es el estudio de algoritmos y modelos estadísticos que los sistemas informáticos utilizan para realizar efectivamente una tarea específica sin usar instrucciones explícitas, confiando en cambio en patrones e inferencias.

Elementos Fundamentales del ML

Datos (Data)

Los datos son el combustible del machine learning. Sin datos de calidad, ningún algoritmo puede funcionar efectivamente.

Tipos de Datos:

  • Estructurados: Tablas, bases de datos relacionales
  • No estructurados: Texto, imágenes, audio, video
  • Semi-estructurados: JSON, XML

Calidad de los Datos:

  • Completitud: Ausencia de valores faltantes
  • Consistencia: Uniformidad en formato y escala
  • Precisión: Corrección de la información
  • Relevancia: Pertinencia para el problema

Algoritmos (Algorithms)

Son los métodos matemáticos y estadísticos que procesan los datos para encontrar patrones.

Modelos (Models)

Un modelo es el resultado de entrenar un algoritmo con datos. Es la representación aprendida de los patrones en los datos.

Características (Features)

Variables individuales medibles de un fenómeno observado.

Etiquetas (Labels)

En aprendizaje supervisado, son las respuestas correctas que el modelo debe predecir.

El Proceso de Machine Learning

1. Definición del Problema

  • Identificar el tipo de problema (clasificación, regresión, clustering)
  • Definir métricas de éxito
  • Establecer restricciones y limitaciones

2. Recolección y Preparación de Datos

  • Recolección: Obtener datos relevantes
  • Limpieza: Eliminar errores y inconsistencias
  • Transformación: Normalización, codificación
  • División: Conjuntos de entrenamiento, validación y prueba

3. Exploración de Datos (EDA - Exploratory Data Analysis)

  • Análisis estadístico descriptivo
  • Visualizaciones
  • Identificación de patrones y anomalías
  • Correlaciones entre variables

4. Selección de Características

  • Identificar las variables más relevantes
  • Reducción de dimensionalidad
  • Ingeniería de características (feature engineering)

5. Selección del Modelo

  • Evaluar diferentes algoritmos
  • Considerar la complejidad computacional
  • Balancear precisión vs interpretabilidad

6. Entrenamiento del Modelo

  • Ajustar parámetros del modelo a los datos
  • Optimización de función de costo
  • Iteración hasta convergencia

7. Evaluación del Modelo

  • Métricas de rendimiento
  • Validación cruzada
  • Análisis de errores

8. Mejora del Modelo

  • Ajuste de hiperparámetros
  • Regularización
  • Ensemble methods

9. Despliegue

  • Implementación en producción
  • Monitoreo continuo
  • Mantenimiento y actualización

2.2 Tipos de Machine Learning

Aprendizaje Supervisado (Supervised Learning)

Definición

El algoritmo aprende de un conjunto de datos de entrenamiento que incluye tanto las características (features) como las etiquetas (labels) correctas.

Características Principales

  • Requiere datos etiquetados
  • Objetivo: predecir etiquetas para nuevos datos
  • Evaluación basada en precisión de predicciones

Tipos de Problemas

Clasificación

Objetivo: Predecir categorías o clases discretas.

Tipos de Clasificación:

Clasificación Binaria:

  • Dos clases posibles (0/1, Sí/No, Spam/No Spam)
  • Ejemplos: Detección de fraude, diagnóstico médico

Clasificación Multiclase:

  • Múltiples clases mutuamente excluyentes
  • Ejemplos: Reconocimiento de dígitos (0-9), clasificación de especies

Clasificación Multilabel:

  • Múltiples etiquetas pueden ser verdaderas simultáneamente
  • Ejemplos: Etiquetado de imágenes, clasificación de géneros musicales

Métricas de Evaluación para Clasificación:

  • Precisión (Accuracy): (TP + TN) / (TP + TN + FP + FN)
  • Precisión (Precision): TP / (TP + FP)
  • Sensibilidad/Recall: TP / (TP + FN)
  • F1-Score: 2 × (Precision × Recall) / (Precision + Recall)
  • ROC-AUC: Área bajo la curva ROC
Regresión

Objetivo: Predecir valores numéricos continuos.

Tipos de Regresión:

  • Regresión Lineal: Relación lineal entre variables
  • Regresión Polinomial: Relaciones no lineales
  • Regresión Logística: Para problemas de clasificación

Ejemplos: Predicción de precios, temperatura, ingresos

Métricas de Evaluación para Regresión:

  • MAE (Mean Absolute Error): Promedio de errores absolutos
  • MSE (Mean Squared Error): Promedio de errores cuadráticos
  • RMSE (Root Mean Squared Error): Raíz cuadrada de MSE
  • R² (Coeficiente de Determinación): Proporción de varianza explicada

Algoritmos de Aprendizaje Supervisado

1. Regresión Lineal

Concepto: Encuentra la mejor línea recta que ajusta los datos.

Ecuación: y = mx + b (caso simple), Y = β₀ + β₁X₁ + β₂X₂ + ... + βₙXₙ (caso múltiple)

Ventajas:

  • Simple e interpretable
  • Rápido de entrenar
  • No requiere mucha memoria

Desventajas:

  • Asume relación lineal
  • Sensible a outliers
  • Problemas con multicolinealidad

Aplicaciones: Predicción de ventas, análisis financiero, estudios económicos

2. Regresión Logística

Concepto: Utiliza la función logística para modelar probabilidades.

Función Logística: p = 1 / (1 + e^(-z))

Ventajas:

  • Proporciona probabilidades
  • No requiere escalado de características
  • Menos propenso al overfitting

Desventajas:

  • Asume relación lineal entre características y log-odds
  • Sensible a outliers

Aplicaciones: Marketing, medicina, ciencias sociales

3. Árboles de Decisión

Concepto: Modelo que toma decisiones siguiendo un conjunto de reglas en estructura de árbol.

Componentes:

  • Nodo raíz: Punto de inicio
  • Nodos internos: Decisiones/pruebas
  • Hojas: Resultados finales
  • Ramas: Conexiones entre nodos

Algoritmos de División:

  • Ganancia de Información: Basada en entropía
  • Índice Gini: Medida de impureza
  • Chi-cuadrado: Para variables categóricas

Ventajas:

  • Fácil de interpretar
  • No requiere preparación extensive de datos
  • Maneja características categóricas y numéricas

Desventajas:

  • Propenso al overfitting
  • Inestable (pequeños cambios en datos pueden cambiar mucho el árbol)
  • Sesgo hacia características con más valores

Aplicaciones: Diagnóstico médico, análisis crediticio, sistemas de recomendación

4. Random Forest

Concepto: Ensemble de múltiples árboles de decisión.

Proceso:

  1. Bootstrap sampling de datos
  2. Selección aleatoria de características en cada división
  3. Entrenamiento de múltiples árboles
  4. Votación (clasificación) o promedio (regresión)

Ventajas:

  • Reduce overfitting comparado con árboles individuales
  • Maneja datos faltantes
  • Proporciona importancia de características

Desventajas:

  • Menos interpretable que árboles individuales
  • Puede hacer overfitting con datos muy ruidosos
5. Support Vector Machines (SVM)

Concepto: Encuentra el hiperplano óptimo que separa las clases con el margen máximo.

Elementos Clave:

  • Vectores de Soporte: Puntos más cercanos al hiperplano
  • Margen: Distancia entre el hiperplano y los vectores de soporte
  • Kernel Trick: Transformación a dimensiones superiores

Tipos de Kernels:

  • Lineal: Para datos linealmente separables
  • Polinomial: Para relaciones polinomiales
  • RBF (Radial Basis Function): Para patrones complejos
  • Sigmoide: Similar a redes neuronales

Ventajas:

  • Efectivo en espacios de alta dimensión
  • Uso eficiente de memoria
  • Versátil con diferentes kernels

Desventajas:

  • Lento en conjuntos de datos grandes
  • Sensible a escalado de características
  • No proporciona estimaciones de probabilidad directamente
6. K-Nearest Neighbors (KNN)

Concepto: Clasifica basándose en la mayoría de los k vecinos más cercanos.

Proceso:

  1. Calcular distancia a todos los puntos de entrenamiento
  2. Seleccionar k vecinos más cercanos
  3. Votar (clasificación) o promediar (regresión)

Métricas de Distancia:

  • Euclidiana: √[(x₁-x₂)² + (y₁-y₂)²]
  • Manhattan: |x₁-x₂| + |y₁-y₂|
  • Minkowski: Generalización de las anteriores

Ventajas:

  • Simple de entender e implementar
  • No hace suposiciones sobre la distribución de datos
  • Funciona bien con pequeños conjuntos de datos

Desventajas:

  • Computacionalmente costoso para predicción
  • Sensible a características irrelevantes
  • Requiere selección cuidadosa de k
7. Naive Bayes

Concepto: Basado en el teorema de Bayes con la "ingenua" suposición de independencia entre características.

Teorema de Bayes: P(A|B) = P(B|A) × P(A) / P(B)

Tipos:

  • Gaussian Naive Bayes: Para características continuas
  • Multinomial Naive Bayes: Para conteos (texto)
  • Bernoulli Naive Bayes: Para características binarias

Ventajas:

  • Rápido y simple
  • Funciona bien con pequeños conjuntos de datos
  • No es sensible a características irrelevantes

Desventajas:

  • Fuerte suposición de independencia
  • Puede ser superado por algoritmos más sofisticados

Aplicaciones: Filtrado de spam, análisis de sentimientos, clasificación de texto

Aprendizaje No Supervisado (Unsupervised Learning)

Definición

Los algoritmos trabajan con datos que no tienen etiquetas, buscando patrones ocultos o estructuras subyacentes en los datos.

Características Principales

  • No requiere datos etiquetados
  • Objetivo: descubrir estructura oculta en datos
  • Evaluación más subjetiva y dependiente del dominio

Tipos de Problemas

Clustering (Agrupamiento)

Objetivo: Agrupar datos similares en clusters.

Algoritmos Principales:

K-Means:

  • Particiona datos en k clusters
  • Minimiza la suma de distancias cuadráticas dentro de clusters
  • Requiere especificar número de clusters

Proceso:

  1. Seleccionar k centroides iniciales
  2. Asignar cada punto al centroide más cercano
  3. Recalcular centroides
  4. Repetir hasta convergencia

Ventajas:

  • Simple y eficiente
  • Funciona bien con clusters esféricos

Desventajas:

  • Requiere especificar k
  • Sensible a inicialización
  • Asume clusters de tamaño similar

Hierarchical Clustering:

  • Crea jerarquía de clusters
  • No requiere especificar número de clusters

Tipos:

  • Aglomerativo: Bottom-up (une clusters)
  • Divisivo: Top-down (divide clusters)

DBSCAN (Density-Based Spatial Clustering):

  • Agrupa puntos densos
  • Identifica outliers automáticamente
  • No requiere especificar número de clusters

Parámetros:

  • eps: Radio de vecindad
  • min_samples: Mínimo de puntos para formar cluster
Reducción de Dimensionalidad

Objetivo: Reducir el número de características manteniendo información importante.

Principal Component Analysis (PCA):

  • Encuentra direcciones de máxima varianza
  • Transforma datos a un espacio de menor dimensión
  • Componentes principales son combinaciones lineales de características originales

Proceso:

  1. Estandarizar datos
  2. Calcular matriz de covarianza
  3. Encontrar vectores y valores propios
  4. Seleccionar componentes principales
  5. Transformar datos

t-SNE (t-Distributed Stochastic Neighbor Embedding):

  • Especializado en visualización
  • Preserva relaciones locales
  • No lineal

Linear Discriminant Analysis (LDA):

  • Reducción de dimensionalidad supervisada
  • Maximiza separación entre clases
Detección de Anomalías

Objetivo: Identificar puntos de datos que son significativamente diferentes del resto.

Métodos:

  • Statistical: Basados en distribuciones
  • Isolation Forest: Aísla anomalías
  • One-Class SVM: Encuentra región normal
  • Autoencoders: Redes neuronales para reconstrucción

Aplicaciones: Detección de fraude, monitoreo de sistemas, control de calidad

Reglas de Asociación

Objetivo: Encontrar relaciones entre diferentes elementos.

Conceptos Clave:

  • Soporte: Frecuencia de aparición
  • Confianza: Probabilidad condicional
  • Lift: Mejora sobre predicción aleatoria

Algoritmos:

  • Apriori: Generación iterativa de conjuntos frecuentes
  • FP-Growth: Basado en árboles FP

Aplicaciones: Análisis de canasta de mercado, sistemas de recomendación

Aprendizaje por Refuerzo (Reinforcement Learning)

Definición

El agente aprende a tomar decisiones mediante la interacción con un entorno, recibiendo recompensas o castigos por sus acciones.

Componentes Fundamentales

Agente

Entidad que toma decisiones y realiza acciones.

Entorno

Todo lo que está fuera del agente y con lo que interactúa.

Estado (State)

Descripción completa de la situación actual del entorno.

Acción (Action)

Conjunto de todos los movimientos posibles que puede hacer el agente.

Recompensa (Reward)

Señal numérica que indica qué tan buena fue la acción tomada.

Política (Policy)

Estrategia que define qué acción tomar en cada estado.

Proceso del Aprendizaje por Refuerzo

  1. Observación: Agente observa el estado actual
  2. Acción: Agente selecciona y ejecuta una acción
  3. Recompensa: Entorno proporciona recompensa
  4. Transición: Entorno cambia a nuevo estado
  5. Aprendizaje: Agente actualiza su conocimiento
  6. Repetición: El proceso continúa

Conceptos Matemáticos Clave

Función de Valor

V^π(s): Valor esperado de estar en estado s siguiendo política π

Función Q

Q^π(s,a): Valor esperado de tomar acción a en estado s siguiendo política π

Ecuación de Bellman

Relación recursiva que conecta el valor de un estado con los valores de estados futuros.

Algoritmos Principales

Q-Learning
  • Tipo: Model-free, off-policy
  • Objetivo: Aprender función Q óptima
  • Actualización: Q(s,a) ← Q(s,a) + α[r + γ max Q(s',a') - Q(s,a)]

Ventajas:

  • No requiere modelo del entorno
  • Garantiza convergencia bajo ciertas condiciones

Desventajas:

  • Requiere tabla Q (problemas con espacios grandes)
  • Exploración vs explotación
SARSA (State-Action-Reward-State-Action)
  • Tipo: Model-free, on-policy
  • Actualización: Q(s,a) ← Q(s,a) + α[r + γ Q(s',a') - Q(s,a)]
Deep Q-Networks (DQN)
  • Combina Q-learning con redes neuronales profundas
  • Maneja espacios de estado de alta dimensión
  • Utiliza experience replay y target networks
Policy Gradient Methods
  • Optimizan directamente la política
  • Funcionan con espacios de acción continuos
  • Ejemplos: REINFORCE, Actor-Critic, PPO

Estrategias de Exploración

ε-greedy
  • Con probabilidad ε, toma acción aleatoria
  • Con probabilidad (1-ε), toma mejor acción conocida
Upper Confidence Bound (UCB)
  • Balancea exploración y explotación usando incertidumbre
Thompson Sampling
  • Método bayesiano para balance exploración-explotación

Aplicaciones

  • Juegos (AlphaGo, OpenAI Five)
  • Robótica
  • Sistemas de recomendación
  • Trading algorítmico
  • Vehículos autónomos

2.3 Evaluación y Validación de Modelos

Conceptos Fundamentales

Overfitting (Sobreajuste)

Definición: Cuando un modelo aprende demasiado bien los datos de entrenamiento, incluyendo ruido y detalles específicos, perdiendo capacidad de generalización.

Características:

  • Alto rendimiento en datos de entrenamiento
  • Bajo rendimiento en datos nuevos
  • Modelo demasiado complejo para los datos disponibles

Causas:

  • Modelo muy complejo
  • Pocos datos de entrenamiento
  • Entrenamiento excesivo
  • Características irrelevantes

Underfitting (Subajuste)

Definición: Cuando un modelo es demasiado simple para capturar los patrones subyacentes en los datos.

Características:

  • Bajo rendimiento tanto en entrenamiento como en prueba
  • Modelo demasiado simple
  • No captura la relación entre características y objetivo

Bias-Variance Tradeoff

Bias (Sesgo)

Error introducido por la simplificación del modelo.

  • Alto Bias: Modelo demasiado simple (underfitting)
  • Bajo Bias: Modelo puede capturar patrones complejos
Variance (Varianza)

Sensibilidad del modelo a pequeños cambios en los datos de entrenamiento.

  • Alta Varianza: Modelo muy sensible a datos (overfitting)
  • Baja Varianza: Modelo consistente
Error Total

Error Total = Bias² + Variance + Irreducible Error

Técnicas de Validación

Holdout Validation

Proceso:

  1. Dividir datos en entrenamiento y prueba (típicamente 70/30 o 80/20)
  2. Entrenar modelo con datos de entrenamiento
  3. Evaluar con datos de prueba

Ventajas:

  • Simple y rápido
  • Apropiado para conjuntos de datos grandes

Desventajas:

  • Resultado depende de la división específica
  • Puede desperdiciar datos

K-Fold Cross Validation

Proceso:

  1. Dividir datos en k subconjuntos (folds)
  2. Para cada fold:
    • Usar como conjunto de prueba
    • Usar resto como entrenamiento
  3. Pro

Comments

Popular posts from this blog

Aloe Vera: La Planta Milagrosa para tu Salud y Bienestar

CURSO DE INTELIGENCIA ARTIFICIAL