-Fundamento Teórico-
- La aproximación por mínimos cuadrados busca la curva o línea que minimiza la suma de los errores al cuadrado entre los puntos observados y los puntos en la curva.
- En el caso de la regresión lineal, el método de mínimos cuadrados determina la recta de regresión que mejor ajusta los datos.
- La recta de regresión se considera como la proyección ortogonal de los puntos observados sobre una recta en el espacio de las variables, buscando que la distancia entre los puntos y la recta sea mínima.
- Este método se utiliza en diversas áreas como la física (ajuste de experimentos), la estadística (regresión lineal y análisis de varianza), la ingeniería (modelado de sistemas), y la economía (predicción de tendencias).
- El residuo o error es la diferencia entre el valor observado de la variable dependiente y el valor predicho por el modelo.
- Para que el método de mínimos cuadrados funcione correctamente, se suelen asumir ciertos supuestos, como que los errores son independientes, tienen varianza constante (homocedasticidad), y están distribuidos normalmente.
- Este teorema establece que, bajo ciertas condiciones, el estimador de mínimos cuadrados ordinarios (MCO) es el mejor estimador lineal insesgado (BLUE), es decir, tiene la menor varianza entre todos los estimadores lineales insesgados.
- El método de mínimos cuadrados busca minimizar el error o desviación de cada punto de los datos respecto a la línea o curva de ajuste.
- El método se extiende para el ajuste de curvas polinomiales, exponenciales o de otras formas, buscando la curva que mejor se ajuste a los datos.
- Para un ajuste más preciso, se puede utilizar la técnica de mínimos cuadrados ponderados, que asigna pesos diferentes a los puntos de datos según su precisión o importancia.
-Algoritmo del Método-
- Preparación de los datos:
- Organizar los datos en una tabla con columnas para x, y, x², xy.
- Sumar cada columna para obtener ∑x, ∑y, ∑x², ∑xy.
- Contar el número total de puntos (n).
- Calculo de la pendiente (m):
- Utilizar la fórmula: m = (n∑xy - ∑x∑y) / (n∑x² - (∑x)²).
- Calculo del intercepto (b):
- Utilizar la fórmula: b = (∑y - m∑x) / n.
- Obtención de la ecuación de la recta:
- La ecuación de la recta ajustada es: y = mx + b.
-Ejercicio Resuelto Paso a Paso-
Ejemplo:
Dado el conjunto de puntos:
Queremos encontrar la recta de mejor ajuste (mínimos cuadrados) de la forma:
✅ Paso 1: Calcular sumatorias necesarias
Creamos una tabla para organizar los datos:
1 | 2 | 1 | 2 |
2 | 3 | 4 | 6 |
3 | 5 | 9 | 15 |
4 | 4 | 16 | 16 |
5 | 6 | 25 | 30 |
Σ | 55 | 69 |
✅ Paso 2: Usar las fórmulas de mínimos cuadrados
Con :
✅ Paso 3: Ecuación de la recta ajustada
✅ Paso 4: Interpretación
La recta es la que mejor se ajusta a los datos, minimizando el error cuadrático.
-Código del Método-
import numpy as np
import matplotlib.pyplot as plt
# Datos del ejemplo
x = np.array([1, 2, 3, 4, 5], dtype=float)
y = np.array([2, 3, 5, 4, 6], dtype=float)
# Calcular sumatorias
n = len(x)
sum_x = np.sum(x)
sum_y = np.sum(y)
sum_x2 = np.sum(x**2)
sum_xy = np.sum(x * y)
# Cálculo de los coeficientes a (pendiente) y b (intersección)
a = (n * sum_xy - sum_x * sum_y) / (n * sum_x2 - sum_x**2)
b = (sum_y * sum_x2 - sum_x * sum_xy) / (n * sum_x2 - sum_x**2)
# Ecuación de la recta: y = ax + b
x_fit = np.linspace(min(x), max(x), 100)
y_fit = a * x_fit + b
eq = f"y = {a:.2f}x + {b:.2f}"
# Graficar datos y la recta ajustada
plt.figure(figsize=(8, 5))
plt.scatter(x, y, color='red', label='Datos')
plt.plot(x_fit, y_fit, color='blue', label=f'Recta de ajuste: {eq}')
plt.title("Ajuste por Mínimos Cuadrados")
plt.xlabel("x")
plt.ylabel("y")
plt.grid(True)
plt.legend()
plt.show()
-Grafica-
-Conclusión-
En conclusión, la aproximación por mínimos cuadrados es un método estadístico robusto para encontrar el mejor ajuste a conjunto de datos. Se utiliza para minimizar la suma de los cuadrados de las diferencias entre los valores observados y los valores predichos por un modelo, lo que resulta en la mejor estimación de los parámetros del modelo.
Comentarios
Publicar un comentario