Skip to content
Volver

Aproximacion por mínimos cuadrados

Publicado:  at  04:46 PM
Por Adrian Rodriguez Arzola
Grafica de la serie de taylor
Imagen de ResearchGate

Historia

El método de los mínimos cuadrados fue formalizado por Adrien-Marie Legendre en 1805 y posteriormente desarrollado por Carl Friedrich Gauss en 1809. Este método se utiliza para encontrar la mejor aproximación lineal a un conjunto de datos, minimizando la suma de los cuadrados de las diferencias entre los valores observados y los valores predichos por el modelo. Wikipedia

La técnica de mínimos cuadrados ha sido fundamental en el desarrollo de la estadística y el análisis de datos, con aplicaciones que van desde la astronomía hasta la economía. Su capacidad para manejar datos ruidosos y proporcionar estimaciones óptimas la ha convertido en una herramienta esencial en la modelización y la inferencia estadística.

Funciones del Método de Aproximación por Mínimos Cuadrados

La Aproximación por Mínimos Cuadrados es una técnica numérica utilizada para encontrar la mejor aproximación lineal (o de otro tipo) a un conjunto de datos. El objetivo principal es minimizar la suma de los cuadrados de las diferencias entre los valores observados y los valores predichos por el modelo.

Función Objetivo:

La función objetivo del método de Mínimos Cuadrados se define como la suma de los cuadrados de los errores:

S=i=1n(yi(a+bxi))2S = \sum_{i=1}^n (y_i - (a + bx_i))^2

Donde:

Cálculo de los Coeficientes:

Para minimizar SS, derivamos con respecto a aa y bb y resolvemos el sistema de ecuaciones:

Sa=2i=1n(yiabxi)=0\frac{\partial S}{\partial a} = -2 \sum_{i=1}^n (y_i - a - bx_i) = 0 Sb=2i=1nxi(yiabxi)=0\frac{\partial S}{\partial b} = -2 \sum_{i=1}^n x_i(y_i - a - bx_i) = 0

Resolviendo este sistema se obtienen los coeficientes óptimos:

a=ybxna = \frac{\sum y - b \sum x}{n} b=n(xy)xyn(x2)(x)2b = \frac{n \sum (xy) - \sum x \sum y}{n \sum (x^2) - (\sum x)^2}

Ecuación de la Recta Ajustada:

Una vez calculados aa y bb, la ecuación de la recta ajustada es:

y=a+bxy = a + bx

Error Cuadrático Medio (ECM)

El ECM mide qué tan buena es la aproximación. Se calcula como:

ECM=1ni=1n(yi(a+bxi))2ECM = \frac{1}{n} \sum_{i=1}^n (y_i - (a + bx_i))^2

¡Vamos con los pasos bien explicados y claros para tu blog! 😊

Pasos para Resolver el Método de Aproximación por Mínimos Cuadrados

Recopilación de Datos

Se necesita un conjunto de puntos (xi,yi)(x_i, y_i) que representan las observaciones de la variable independiente xx y la variable dependiente yy.

Cálculo de las Sumatorias Necesarias

Para poder encontrar los coeficientes aa y bb, se calculan las siguientes sumatorias:

Aplicación de las Fórmulas para los Coeficiente

Los coeficientes de la recta ajustada se encuentran con las siguientes fórmulas:

b=n(xy)xyn(x2)(x)2b = \frac{n \sum (xy) - \sum x \sum y}{n \sum (x^2) - (\sum x)^2} a=ybxna = \frac{\sum y - b \sum x}{n}

Donde:

Construcción de la Ecuación de la Recta Ajustada

Con los valores de aa y bb, se forma la ecuación lineal:

y=a+bxy = a + bx

Cálculo del Error Cuadrático Medio (opcional)

Si se desea conocer la precisión del ajuste, se puede calcular el Error Cuadrático Medio (ECM):

ECM=1ni=1n(yi(a+bxi))2ECM = \frac{1}{n} \sum_{i=1}^n (y_i - (a + bx_i))^2

Interpretación de Resultado

Finalmente, se interpreta la ecuación obtenida, donde:

¡Vamos con el ejemplo bien estructurado para tu blog! 😊

Ejemplo Resuelto: Método de Aproximación por Mínimos Cuadrados

Supongamos que tenemos el siguiente conjunto de datos que representan el comportamiento de una variable dependiente yy en función de una variable independiente xx:

xxyy
12.2
22.8
33.6
44.5
55.1

Queremos encontrar la recta que mejor se ajuste a estos datos utilizando el método de Mínimos Cuadrados.

Paso 1: Recopilación de datos

Los puntos a interpolar son:

(1,2.2),(2,2.8),(3,3.6),(4,4.5),(5,5.1)(1, 2.2), (2, 2.8), (3, 3.6), (4, 4.5), (5, 5.1)

Paso 2: Cálculo de las sumatorias necesarias

x=1+2+3+4+5=15\sum x = 1 + 2 + 3 + 4 + 5 = 15 y=2.2+2.8+3.6+4.5+5.1=18.2\sum y = 2.2 + 2.8 + 3.6 + 4.5 + 5.1 = 18.2 (x2)=12+22+32+42+52=55\sum (x^2) = 1^2 + 2^2 + 3^2 + 4^2 + 5^2 = 55 (xy)=(1)(2.2)+(2)(2.8)+(3)(3.6)+(4)(4.5)+(5)(5.1)=66.3\sum (xy) = (1)(2.2) + (2)(2.8) + (3)(3.6) + (4)(4.5) + (5)(5.1) = 66.3 n=5n = 5

Paso 3: Aplicación de las fórmulas para los coeficientes

b=n(xy)xyn(x2)(x)2b = \frac{n \sum (xy) - \sum x \sum y}{n \sum (x^2) - (\sum x)^2} b=5(66.3)15(18.2)5(55)(15)2b = \frac{5(66.3) - 15(18.2)}{5(55) - (15)^2} b=331.5273275225b = \frac{331.5 - 273}{275 - 225} b=58.550=1.17b = \frac{58.5}{50} = 1.17

Ahora calculamos aa:

a=ybxna = \frac{\sum y - b \sum x}{n} a=18.21.17(15)5a = \frac{18.2 - 1.17(15)}{5} a=18.217.555a = \frac{18.2 - 17.55}{5} a=0.13a = 0.13

Paso 4: Ecuación de la recta ajustada

Finalmente, la ecuación de la recta que aproxima mejor los datos es:

y=0.13+1.17xy = 0.13 + 1.17x

Ejemplo en Python

# Reimportar librerías y reejecutar el código tras el reset
import matplotlib.pyplot as plt
import numpy as np

# Datos del ejemplo
x = np.array([1, 2, 3, 4, 5])
y = np.array([2.2, 2.8, 3.6, 4.5, 5.1])

# Número de puntos
n = len(x)

# Cálculo de las sumatorias
sum_x = np.sum(x)
sum_y = np.sum(y)
sum_x2 = np.sum(x**2)
sum_xy = np.sum(x * y)

# Cálculo de los coeficientes a y b
b = (n * sum_xy - sum_x * sum_y) / (n * sum_x2 - sum_x**2)
a = (sum_y - b * sum_x) / n
print(f"Coeficientes: a = {a:.2f}, b = {b:.2f}")

# Ecuación de la recta
x_line = np.linspace(0, 6, 100)
y_line = a + b * x_line

# Graficar
plt.figure(figsize=(6, 4))
plt.scatter(x, y, color='red', label='Datos originales')
plt.plot(x_line, y_line, color='blue', label=f'Recta ajustada: y = {a:.2f} + {b:.2f}x')
plt.title('Aproximación por Mínimos Cuadrados')
plt.xlabel('x')
plt.ylabel('y')
plt.grid(True, linestyle='--', alpha=0.7)
plt.legend()
plt.show()

Salida

Coeficientes: a = 1.39, b = 0.75

Grafica

Texto alternativo

Explicacion visual

Video explicativo del metodo de minimos cuadrados (Canal: Flex Flix Teens en Español)

Conclusión: Método de Aproximación por Mínimos Cuadrados

La aproximación por mínimos cuadrados es un método estadístico utilizado para minimizar la suma de los cuadrados de las diferencias entre los datos observados y los valores predichos por el modelo. Es fundamental en el análisis de regresión y en la aproximación de soluciones cuando los datos son ruidosos o no exactos. Este método se usa en una amplia variedad de campos, incluidos la economía, la ingeniería y las ciencias sociales.

La relevancia de este método es que permite encontrar una solución óptima para problemas de ajuste de curvas y regresión, incluso cuando los datos contienen errores o incertidumbres. Se utiliza de manera rutinaria en la modelización de fenómenos naturales y en la predicción de tendencias a partir de datos experimentales, lo que lo convierte en una herramienta esencial en el análisis de datos (Golub & Van Loan, 2013).

Golub, G. H., & Van Loan, C. F. (2013). Matrix Computations (4th ed.). Johns Hopkins University Press.


Suggest Changes

Post Anterior
Metodo de Montante
Post Siguiente
Splines