Aproximación por Mínimos Cuadrados



 -Fundamento Teórico-

  1. 1. Minimización de Errores:
    La aproximación por mínimos cuadrados busca la curva o línea que minimiza la suma de los errores al cuadrado entre los puntos observados y los puntos en la curva. 
  2. 2. Modelo de Regresión:
    En el caso de la regresión lineal, el método de mínimos cuadrados determina la recta de regresión que mejor ajusta los datos. 
  3. 3. Principio de Ortogonalidad:
    La recta de regresión se considera como la proyección ortogonal de los puntos observados sobre una recta en el espacio de las variables, buscando que la distancia entre los puntos y la recta sea mínima. 
  4. 4. Aplicaciones Amplias:
    Este método se utiliza en diversas áreas como la física (ajuste de experimentos), la estadística (regresión lineal y análisis de varianza), la ingeniería (modelado de sistemas), y la economía (predicción de tendencias). 
  5. 5. Importancia del Resíduo:
    El residuo o error es la diferencia entre el valor observado de la variable dependiente y el valor predicho por el modelo. 
  6. 6. Supuestos de Mínimos Cuadrados:
    Para que el método de mínimos cuadrados funcione correctamente, se suelen asumir ciertos supuestos, como que los errores son independientes, tienen varianza constante (homocedasticidad), y están distribuidos normalmente. 
  7. 7. Teorema de Gauss-Markov:
    Este teorema establece que, bajo ciertas condiciones, el estimador de mínimos cuadrados ordinarios (MCO) es el mejor estimador lineal insesgado (BLUE), es decir, tiene la menor varianza entre todos los estimadores lineales insesgados. 
  8. 8. Error y Desviación:
    El método de mínimos cuadrados busca minimizar el error o desviación de cada punto de los datos respecto a la línea o curva de ajuste. 
  9. 9. Ajuste de Curvas:
    El método se extiende para el ajuste de curvas polinomiales, exponenciales o de otras formas, buscando la curva que mejor se ajuste a los datos. 
  10. 10. Consideraciones Adicionales:
    Para un ajuste más preciso, se puede utilizar la técnica de mínimos cuadrados ponderados, que asigna pesos diferentes a los puntos de datos según su precisión o importancia. 

-Algoritmo del Método-

  1. Preparación de los datos:
    • Organizar los datos en una tabla con columnas para x, y, x², xy.
    • Sumar cada columna para obtener ∑x, ∑y, ∑x², ∑xy.
    • Contar el número total de puntos (n).
  2. Calculo de la pendiente (m):
    • Utilizar la fórmula: m = (n∑xy - ∑x∑y) / (n∑x² - (∑x)²).
  3. Calculo del intercepto (b):
    • Utilizar la fórmula: b = (∑y - m∑x) / n.
  4. Obtención de la ecuación de la recta:
    • La ecuación de la recta ajustada es: y = mx + b. 

-Ejercicio Resuelto Paso a Paso-

Ejemplo:

Dado el conjunto de puntos:

(1,2), (2,3), (3,5), (4,4), (5,6)(1, 2),\ (2, 3),\ (3, 5),\ (4, 4),\ (5, 6)

Queremos encontrar la recta de mejor ajuste (mínimos cuadrados) de la forma:

y=ax+by = ax + b

Paso 1: Calcular sumatorias necesarias

Creamos una tabla para organizar los datos:

xxyyx2x^2xyxy
1212
2346
35915
441616
562530
Σ5569
x=1+2+3+4+5=15,y=2+3+5+4+6=20,x2=55,xy=69\sum x = 1+2+3+4+5 = 15,\quad \sum y = 2+3+5+4+6 = 20,\quad \sum x^2 = 55,\quad \sum xy = 69

Paso 2: Usar las fórmulas de mínimos cuadrados

a=nxyxynx2(x)2yb=yx2xxynx2(x)2a = \frac{n\sum xy - \sum x \sum y}{n\sum x^2 - (\sum x)^2} \quad\text{y}\quad b = \frac{\sum y \sum x^2 - \sum x \sum xy}{n\sum x^2 - (\sum x)^2}

Con n=5n = 5:

a=5(69)15(20)5(55)152=345300275225=4550=0.9a = \frac{5(69) - 15(20)}{5(55) - 15^2} = \frac{345 - 300}{275 - 225} = \frac{45}{50} = 0.9 b=20(55)15(69)275225=1100103550=6550=1.3b = \frac{20(55) - 15(69)}{275 - 225} = \frac{1100 - 1035}{50} = \frac{65}{50} = 1.3

Paso 3: Ecuación de la recta ajustada

y=0.9x+1.3y = 0.9x + 1.3

Paso 4: Interpretación

La recta y=0.9x+1.3y = 0.9x + 1.3 es la que mejor se ajusta a los datos, minimizando el error cuadrático.


-Código del Método-

import numpy as np
import matplotlib.pyplot as plt

# Datos del ejemplo
x = np.array([1, 2, 3, 4, 5], dtype=float)
y = np.array([2, 3, 5, 4, 6], dtype=float)

# Calcular sumatorias
n = len(x)
sum_x = np.sum(x)
sum_y = np.sum(y)
sum_x2 = np.sum(x**2)
sum_xy = np.sum(x * y)

# Cálculo de los coeficientes a (pendiente) y b (intersección)
a = (n * sum_xy - sum_x * sum_y) / (n * sum_x2 - sum_x**2)
b = (sum_y * sum_x2 - sum_x * sum_xy) / (n * sum_x2 - sum_x**2)

# Ecuación de la recta: y = ax + b
x_fit = np.linspace(min(x), max(x), 100)
y_fit = a * x_fit + b
eq = f"y = {a:.2f}x + {b:.2f}"

# Graficar datos y la recta ajustada
plt.figure(figsize=(8, 5))
plt.scatter(x, y, color='red', label='Datos')
plt.plot(x_fit, y_fit, color='blue', label=f'Recta de ajuste: {eq}')
plt.title("Ajuste por Mínimos Cuadrados")
plt.xlabel("x")
plt.ylabel("y")
plt.grid(True)
plt.legend()
plt.show()

-Grafica-


-Video Explicativo-


-Conclusión-

En conclusión, la aproximación por mínimos cuadrados es un método estadístico robusto para encontrar el mejor ajuste a conjunto de datos. Se utiliza para minimizar la suma de los cuadrados de las diferencias entre los valores observados y los valores predichos por un modelo, lo que resulta en la mejor estimación de los parámetros del modelo. 


Comentarios