Postnikov
Asistidos con IA
Es una excelente decisión dividir el material. El texto de Postnikov, Lectures in Geometry: Semester I - Analytic Geometry, se caracteriza por ser muy riguroso y axiomático desde el principio, basando la geometría en el concepto de vector en lugar del enfoque euclidiano tradicional de punto y recta. Además, introduce conceptos avanzados como los bivectores mucho antes que los cursos estándar.
Aquí tienes una propuesta de temario detallado, desglosando las 8 primeras lecciones en 15 temas manejables. Esto te permitirá digerir la densidad teórica del autor paso a paso.
Módulo 1: Fundamentos del Espacio Vectorial (Lecciones 1 y 2)
Este módulo establece la base axiomática. Postnikov no da por sentado los vectores geométricos, sino que los define algebraicamente.
- Tema 1: La Axiomática del Espacio Vectorial
- Introducción al enfoque de Postnikov: por qué usar vectores en lugar de puntos.
- Definición formal de vector y las operaciones básicas (suma y multiplicación por un escalar).
- Los 8 axiomas del espacio vectorial sobre un cuerpo arbitrario $K$.
- Tema 2: Ejemplos y Contraejemplos de Espacios
- Análisis de espacios funcionales, polinomios y $\mathbb{R}^n$ como espacios vectoriales.
- Diferencia entre espacio vectorial y módulo sobre un anillo.
- Tema 3: Consecuencias Algebraicas y Familias
- Deducción de propiedades "obvias" (unicidad del cero, inversos, multiplicación por cero) estrictamente desde los axiomas.
- La independencia de la suma respecto a la agrupación de paréntesis (asociatividad generalizada).
- El concepto formal de Familia vs. Conjunto de vectores.
Módulo 2: Dependencia Lineal, Bases y Dimensión (Lecciones 3 y 4)
Aquí se construye la estructura dimensional del espacio. Es denso porque Postnikov prueba teoremas fundamentales que a menudo se omiten en cursos introductorios.
- Tema 4: Dependencia e Independencia Lineal
- Definición de combinación lineal y dependencia.
- Propiedades de los conjuntos linealmente dependientes (el papel del vector cero, subconjuntos).
- Tema 5: El Teorema Fundamental de la Dependencia Lineal
- El lema de intercambio (si $m > n$ vectores se expresan mediante $n$ vectores, son dependientes).
- Demostración algebraica mediante sistemas de ecuaciones lineales.
- Tema 6: Interpretación Geométrica y Bases
- Definición de vectores colineales y coplanares.
- Concepto de familia completa y definición de Base.
- Tema 7: Dimensión y Coordenadas
- Axioma de dimensionalidad y definición de $\dim \mathcal{T}$.
- Introducción a la notación de suma de Einstein (índices repetidos) para coordenadas.
Módulo 3: El Espacio Afín y la Recta (Lecciones 5 y 6)
Postnikov distingue rigurosamente entre el espacio vectorial (vectores) y el espacio afín (puntos).
- Tema 8: Isomorfismos y el Método de Coordenadas
- Definición de isomorfismo entre espacios vectoriales.
- Isomorfismo de coordenadas: por qué $\mathbb{R}^n$ es un modelo, pero no el único espacio.
- Tema 9: El Espacio Afín
- Definición axiomática de Espacio Afín ($\mathcal{A}$) y su relación con el espacio vectorial asociado ($\mathcal{T}$).
- La relación fundamental $\vec{AB} + \vec{BC} = \vec{AC}$.
- Coordenadas afines y el radio vector.
- Tema 10: La Recta en el Espacio Afín
- Definición de recta mediante un punto y un vector director.
- Unicidad de la recta que pasa por dos puntos y definición de segmento.
- Tema 11: Ecuaciones de la Recta
- Ecuación vectorial paramétrica $\mathbf{r} = \mathbf{r}_0 + t\mathbf{a}$.
- Ecuaciones en coordenadas (paramétricas y canónicas) en el plano y el espacio.
- Ecuación general de la recta $Ax + By + C = 0$.
- Tema 12: Posiciones Relativas y Semieplanos
- Intersección y paralelismo de rectas (sistemas de ecuaciones lineales).
- Teorema de separación: Semieplanos definidos por una recta.
Módulo 4: Álgebra Exterior y Bivectores (Lecciones 7 y 8)
Esta es la parte más distintiva del curso. Postnikov introduce el álgebra de Grassmann (producto exterior) muy temprano para manejar áreas y orientaciones sin necesitar métrica todavía.
- Tema 13: El Concepto de Bivector
- Noción intuitiva: elementos de área "flotantes" vs. definición formal (pares de vectores).
- Transformaciones elementales de pares de vectores.
- Condiciones de igualdad para bivectores no nulos.
- Tema 14: Operaciones con Bivectores
- Suma de bivectores (construcción geométrica y corrección de la definición).
- Multiplicación de un bivector por un número.
- Tema 15: Propiedades Algebraicas del Producto Exterior
- Distributividad, homogeneidad y anticoneutatividad ($a \wedge b = - b \wedge a$).
- El espacio vectorial de los bivectores ($\mathcal{V} \wedge \mathcal{V}$).
- Bivectores en el plano (dimensión 1) y en el espacio (dimensión 3). Relación con la teoría de áreas (determinantes).
Nota para el estudiante: Al terminar este bloque, habrás cubierto la fundamentación algebraica y afín necesaria antes de entrar en la geometría métrica (distancias, ángulos, producto escalar) y los planos en el espacio, que comienzan a partir de la Lección 9.
TEMA 1 LECCIÓN 1
Aquí tienes el desarrollo detallado del Tema 1: La Axiomática del Espacio Vectorial, basado en la Lección 1 del libro Lectures in Geometry: Semester I - Analytic Geometry de M. Postnikov.
Este tema es fundamental porque establece las reglas del juego algebraico sobre las que se construirá toda la geometría analítica posterior. Postnikov se aleja de la intuición puramente geométrica inicial para fundamentar la teoría en estructuras algebraicas rigurosas.
Tema 1: La Axiomática del Espacio Vectorial
En este tema se define formalmente qué es un espacio vectorial, no limitándose a los "flechas" geométricas, sino como una estructura abstracta.
1. Definición Formal
Un espacio vectorial (o lineal) sobre un cuerpo $K$ es un conjunto $\mathcal{T}$ de elementos, llamados vectores, equipado con dos operaciones fundamentales:
- Adición de vectores: Una operación que toma dos elementos $\mathbf{a}, \mathbf{b} \in \mathcal{T}$ y produce un tercero, denotado como $\mathbf{a} + \mathbf{b}$.
- Multiplicación por un escalar: Una operación que toma un elemento del cuerpo $K$ (un número $k$) y un vector $\mathbf{a} \in \mathcal{T}$ para producir un nuevo vector, denotado como $k\mathbf{a}$.
Aunque generalmente en geometría analítica asumimos que el cuerpo $K$ es el conjunto de los números reales $\mathbb{R}$ ($K = \mathbb{R}$), la definición es válida para cualquier cuerpo arbitrario.
2. Los 8 Axiomas del Espacio Vectorial
Para que el conjunto $\mathcal{T}$ sea considerado un espacio vectorial, las operaciones mencionadas deben satisfacer obligatoriamente los siguientes ocho axiomas. Postnikov los divide implícitamente en dos grupos: los que definen la estructura de grupo abeliano (1-4) y los que definen la acción del cuerpo sobre el grupo (5-8).
Grupo I: Axiomas de la Adición (Estructura de Grupo Abeliano)
- Asociatividad: Para cualesquiera vectores $\mathbf{a}, \mathbf{b}, \mathbf{c} \in \mathcal{T}$: $$\mathbf{a} + (\mathbf{b} + \mathbf{c}) = (\mathbf{a} + \mathbf{b}) + \mathbf{c}$$ Esto implica que el uso de paréntesis es innecesario en sumas múltiples.
- Conmutatividad: Para cualesquiera vectores $\mathbf{a}, \mathbf{b} \in \mathcal{T}$: $$\mathbf{a} + \mathbf{b} = \mathbf{b} + \mathbf{a}$$ .
- Existencia del Elemento Neutro (Cero): Existe un vector $\mathbf{0} \in \mathcal{T}$ tal que para cualquier vector $\mathbf{a}$: $$\mathbf{0} + \mathbf{a} = \mathbf{a}$$ .
- Existencia del Inverso Aditivo (Opuesto): Para cualquier vector $\mathbf{a} \in \mathcal{T}$, existe un vector $-\mathbf{a} \in \mathcal{T}$ tal que: $$\mathbf{a} + (-\mathbf{a}) = \mathbf{0}$$ .
Grupo II: Axiomas de la Multiplicación por un Escalar (Operadores)
- Distributividad respecto a la suma de escalares: Para cualesquiera números $k, l \in K$ y cualquier vector $\mathbf{a} \in \mathcal{T}$: $$(k + l)\mathbf{a} = k\mathbf{a} + l\mathbf{a}$$ .
- Asociatividad mixta (o compatibilidad con la multiplicación del cuerpo): Para cualesquiera números $k, l \in K$ y cualquier vector $\mathbf{a} \in \mathcal{T}$: $$(kl)\mathbf{a} = k(l\mathbf{a})$$ .
- Distributividad respecto a la suma de vectores: Para cualquier número $k \in K$ y cualesquiera vectores $\mathbf{a}, \mathbf{b} \in \mathcal{T}$: $$k(\mathbf{a} + \mathbf{b}) = k\mathbf{a} + k\mathbf{b}$$ .
- Elemento unidad: Para el número $1 \in K$ (la unidad del cuerpo) y cualquier vector $\mathbf{a} \in \mathcal{T}$: $$1\mathbf{a} = \mathbf{a}$$ . Nota: A veces este axioma se da por sentado, pero es esencial en la definición formal.
3. Interpretación Algebraica
Postnikov ofrece una visión estructural muy potente: Un espacio vectorial puede definirse concisamente como un grupo abeliano (escrito aditivamente) que tiene al cuerpo $K$ como un cuerpo de operadores.
4. Distinción entre Espacio Vectorial y Módulo
El autor hace una distinción teórica importante:
- Si los escalares provienen de un cuerpo (donde la división, salvo por cero, siempre es posible, como en $\mathbb{R}$), tenemos un Espacio Vectorial.
- Si los escalares provienen solo de un anillo (donde la división no está garantizada), la estructura se llama Módulo. La teoría de los módulos es mucho más compleja que la de los espacios vectoriales precisamente por la ausencia de la división, por lo que el curso se limitará estrictamente a espacios vectoriales (sobre cuerpos).
Módulo 1 Tema 2
- Análisis de espacios funcionales, polinomios y $\mathbb{R}^n$ como espacios vectoriales.
- Diferencia entre espacio vectorial y módulo sobre un anillo.
Aquí tienes el desarrollo del Tema 2: Ejemplos y Contraejemplos de Espacios, basado en las lecciones de M. Postnikov y las fuentes proporcionadas.
Este tema ilustra la universalidad de la definición axiomática de espacio vectorial, demostrando que el concepto de "vector" no se limita a segmentos dirigidos geométricos, sino que abarca entidades matemáticas diversas como funciones, sucesiones numéricas y polinomios.
1. Análisis de Espacios Vectoriales Clave
Para Postnikov, la definición de espacio vectorial es abstracta y no impone restricciones sobre la naturaleza de los elementos del conjunto $\mathcal{T}$ (los vectores) ni sobre la realización particular de las operaciones, siempre que cumplan los axiomas.
A. El Espacio Numérico $\mathbb{R}^n$
Este es el ejemplo fundamental para la geometría analítica y el álgebra lineal.
- Definición: Sea $n$ un número natural arbitrario. Consideramos el conjunto $\mathbb{R}^n$ formado por todas las sucesiones de $n$ términos (o $n$-uplas) de números reales $(a_1, \dots, a_n)$.
- Operaciones: Las operaciones vectoriales se definen "componente a componente":
- Suma: $(a_1, \dots, a_n) + (b_1, \dots, b_n) = (a_1 + b_1, \dots, a_n + b_n)$.
- Producto por escalar: $k(a_1, \dots, a_n) = (ka_1, \dots, ka_n)$.
- Importancia: Al definir estas operaciones, $\mathbb{R}^n$ se convierte en un espacio vectorial. Este espacio es crucial porque, como se verá más adelante en el curso, todo espacio vectorial de dimensión $n$ es isomorfo a $\mathbb{R}^n$,.
B. Espacios Funcionales
Estos ejemplos explican por qué el concepto de espacio vectorial es vital en el análisis matemático moderno (análisis funcional).
- El espacio $\mathcal{F}(X)$: Sea $X$ un conjunto arbitrario. $\mathcal{F}(X)$ es el conjunto de todas las funciones (con valores reales) definidas sobre $X$.
- Las operaciones se definen de la manera habitual ("por valores"): $$(f + g)(x) = f(x) + g(x)$$ $$(kf)(x) = k(f(x))$$
- Es fácil verificar que se cumplen los axiomas $1^\circ$ al $8^\circ$, por lo que $\mathcal{F}(X)$ es un espacio vectorial donde los "vectores" son funciones.
- El espacio $\mathcal{C}(X)$: Si $X \subseteq \mathbb{R}$ (por ejemplo, un intervalo), tiene sentido hablar del conjunto $\mathcal{C}(X)$ de todas las funciones continuas. Dado que la suma de funciones continuas y el producto de una función continua por un número resultan en funciones continuas, $\mathcal{C}(X)$ es un subespacio vectorial de $\mathcal{F}(X)$,.
C. El Espacio de Polinomios
Los polinomios también constituyen espacios vectoriales, lo cual demuestra la importancia de esta estructura en el álgebra.
- Espacio general: El conjunto de todos los polinomios en una variable es un espacio vectorial.
- Espacios de grado acotado: El conjunto de todos los polinomios cuyo grado no excede un número dado $n$ forma un espacio vectorial. Dependiendo del $n$ elegido, obtenemos infinitos espacios vectoriales diferentes.
2. Diferencia entre Espacio Vectorial y Módulo sobre un Anillo
Postnikov hace una distinción teórica crítica basada en la naturaleza de los "escalares" que operan sobre los vectores. Aunque la definición de espacio vectorial suele asumir que el cuerpo base $K$ son los números reales ($\mathbb{R}$), la teoría es válida para cualquier cuerpo arbitrario.
Sin embargo, si se relajan las condiciones sobre los escalares, la estructura cambia fundamentalmente:
A. Definición de Módulo
La definición axiomática de espacio vectorial (axiomas $1^\circ$ a $8^\circ$) tiene sentido incluso si $K$ es solo un anillo (con unidad), en lugar de un cuerpo.
- En los axiomas $1^\circ$ a $8^\circ$ no se menciona la división.
- Cuando los escalares provienen de un anillo, el objeto definido no se llama espacio vectorial, sino Módulo sobre el anillo $K$.
B. La Diferencia Fundamental: La División
- Espacio Vectorial: Se define sobre un cuerpo (como $\mathbb{R}, \mathbb{C}, \mathbb{Q}$). En un cuerpo, la división por cualquier elemento distinto de cero siempre es posible. Esto permite teoremas potentes sobre bases, dimensión y reducción de sistemas lineales.
- Módulo: Se define sobre un anillo (como los enteros $\mathbb{Z}$, o polinomios). En un anillo, la división no está garantizada (por ejemplo, en $\mathbb{Z}$, 1 dividido por 2 no es un entero).
- Complejidad: Postnikov señala explícitamente que "la teoría de los módulos es sustancialmente más complicada que la teoría de los espacios vectoriales (debido a la ausencia de división)". Por esta razón, el curso de geometría analítica se limita exclusivamente a espacios vectoriales.
C. Visión Estructural
Estructuralmente, tanto los espacios vectoriales como los módulos pueden describirse como grupos abelianos (escritos aditivamente) que poseen un cuerpo (para espacios) o un anillo (para módulos) de operadores $K$.
Módulo 1, Tema 3
- Tema 3: Consecuencias Algebraicas y Familias
- Deducción de propiedades "obvias" (unicidad del cero, inversos, multiplicación por cero) estrictamente desde los axiomas.
- La independencia de la suma respecto a la agrupación de paréntesis (asociatividad generalizada).
- El concepto formal de Familia vs. Conjunto de vectores.
DESARROLLO DEL TEMA 3
Aquí tienes el desarrollo del Tema 3: Consecuencias Algebraicas y Familias, correspondiente a la Lección 2 del libro de M. Postnikov.
En este tema, abandonamos la intuición geométrica para operar estrictamente dentro de las reglas lógicas establecidas por los 8 axiomas del espacio vectorial definidos en el tema anterior.
1. Deducción de Propiedades "Obvias"
Aunque geométricamente ciertas propiedades parecen evidentes, en el álgebra rigurosa deben demostrarse exclusivamente a partir de los axiomas. Postnikov deriva las siguientes consecuencias fundamentales:
A. Unicidad del vector cero El axioma de existencia del neutro (Axioma 3°) afirma que existe un vector $\mathbf{0}$, pero no dice que sea único.
- Teorema: Existe un único vector cero.
- Demostración: Supongamos que existen dos vectores cero, $\mathbf{0}_1$ y $\mathbf{0}_2$.
- Por ser $\mathbf{0}_1$ neutro: $\mathbf{0}_2 + \mathbf{0}_1 = \mathbf{0}_2$.
- Por ser $\mathbf{0}_2$ neutro: $\mathbf{0}_1 + \mathbf{0}_2 = \mathbf{0}_1$.
- Por la conmutatividad (Axioma 2°): $\mathbf{0}_2 + \mathbf{0}_1 = \mathbf{0}_1 + \mathbf{0}_2$.
- Conclusión: $\mathbf{0}_1 = \mathbf{0}_2$.
B. Unicidad del inverso aditivo (opuesto) El axioma 4° garantiza que para cada vector $\mathbf{a}$ existe un negativo $-\mathbf{a}$, pero no especifica si hay solo uno.
- Teorema: El vector opuesto es único.
- Demostración: Si $\mathbf{b}$ y $\mathbf{c}$ fueran ambos opuestos de $\mathbf{a}$ (es decir, $\mathbf{a}+\mathbf{b}=\mathbf{0}$ y $\mathbf{a}+\mathbf{c}=\mathbf{0}$), entonces: $$\mathbf{b} = \mathbf{0} + \mathbf{b} = (\mathbf{a} + \mathbf{c}) + \mathbf{b} = (\mathbf{a} + \mathbf{b}) + \mathbf{c} = \mathbf{0} + \mathbf{c} = \mathbf{c}$$ Por lo tanto, $\mathbf{b} = \mathbf{c}$,.
C. Multiplicación por el escalar cero No existe un axioma que diga que multiplicar por el número 0 da el vector $\mathbf{0}$. Esto debe probarse.
- Fórmula: $0\mathbf{a} = \mathbf{0}$.
- Demostración: $$0\mathbf{a} = (0 + 0)\mathbf{a} = 0\mathbf{a} + 0\mathbf{a}$$ Si restamos (sumamos el opuesto de) $0\mathbf{a}$ a ambos lados, obtenemos $\mathbf{0} = 0\mathbf{a}$,.
D. Multiplicación del vector cero por un escalar
- Fórmula: $k\mathbf{0} = \mathbf{0}$ para cualquier escalar $k$.
- Demostración: Similar a la anterior, $k\mathbf{0} = k(\mathbf{0} + \mathbf{0}) = k\mathbf{0} + k\mathbf{0}$, lo que implica que $k\mathbf{0} = \mathbf{0}$.
E. Relación con el escalar -1
- Fórmula: $(-1)\mathbf{a} = -\mathbf{a}$.
- Demostración: $$\mathbf{a} + (-1)\mathbf{a} = 1\mathbf{a} + (-1)\mathbf{a} = (1 - 1)\mathbf{a} = 0\mathbf{a} = \mathbf{0}$$ Como el inverso es único (ver punto B), $(-1)\mathbf{a}$ debe ser necesariamente el opuesto de $\mathbf{a}$.
2. Independencia de la suma respecto a la agrupación (Asociatividad Generalizada)
El Axioma 1° solo garantiza que la suma de tres vectores no depende de los paréntesis: $(\mathbf{a} + \mathbf{b}) + \mathbf{c} = \mathbf{a} + (\mathbf{b} + \mathbf{c})$. Sin embargo, el álgebra lineal requiere sumar $n$ vectores.
- El Problema: Al sumar $n$ términos $\mathbf{a}_1, \dots, \mathbf{a}_n$, realizamos $n-1$ adiciones. Existen muchas formas de agrupar estas sumas mediante paréntesis. Por ejemplo, para cuatro vectores, podríamos hacer $((\mathbf{a} + \mathbf{b}) + \mathbf{c}) + \mathbf{d}$ o $(\mathbf{a} + \mathbf{b}) + (\mathbf{c} + \mathbf{d})$.
- El Rango: Postnikov define el "rango" de una disposición de paréntesis basándose en dónde ocurre la última suma. Si la última operación suma el grupo de los primeros $k$ términos con el resto, el rango es $k$.
- Teorema: La suma de cualquier número de vectores es independiente de la colocación de los paréntesis.
- Prueba (Inducción): Postnikov demuestra esto por inducción sobre el número $n$. Se asume cierto para $n-1$ términos. Luego, demuestra que cualquier agrupación de $n$ términos se puede transformar, paso a paso utilizando el axioma 1°, en una "suma normal" estandarizada. Al ser todas las agrupaciones iguales a esta suma normal, son iguales entre sí,.
- Consecuencia Práctica: En el álgebra vectorial, podemos omitir los paréntesis en sumas de múltiples vectores y escribir simplemente $\mathbf{a} + \mathbf{b} + \mathbf{c} + \mathbf{d}$.
3. El Concepto Formal de Familia vs. Conjunto
Postnikov introduce una distinción técnica vital para el manejo de coordenadas y bases, diferenciando entre un "conjunto" (donde el orden no importa y no hay repeticiones) y una "familia".
A. Definición de Familia Sea $X$ un conjunto arbitrario (por ejemplo, vectores). Una familia (o secuencia) de $n$ elementos es una aplicación (mapeo) del conjunto de índices ${1, \dots, n}$ en el conjunto $X$: $$i \to x_i$$ Se denota como $(x_1, x_2, \dots, x_n)$.
B. Diferencias Clave con los Conjuntos
- Orden: En una familia, el orden es esencial. La familia $(x_1, x_2)$ es distinta de la familia $(x_2, x_1)$ a menos que $x_1 = x_2$. En un conjunto, ${x_1, x_2} = {x_2, x_1}$.
- Repetición: Una familia puede tener elementos repetidos (ej. un vector listado dos veces). Un conjunto no tiene elementos duplicados. Si la aplicación es inyectiva (sin repeticiones), se llama familia no recurrente.
C. Relación entre Familia y Subconjunto
- Una familia no recurrente determina un subconjunto de $n$ miembros.
- Sin embargo, a un único subconjunto de $n$ elementos le corresponden $n!$ familias distintas (todas las posibles renumeraciones o permutaciones de sus elementos).
Importancia: Esta distinción es crucial para definir bases más adelante. Una base no es solo un conjunto de vectores, sino una familia ordenada, ya que las coordenadas de un vector dependen de qué vector de la base se considera el "primero", cuál el "segundo", etc.
DESARROLLO CON DETALLE DE LA ASOCIATIVIDAD GENERALIZADA
Aquí tiene el desarrollo detallado del apartado sobre la Independencia de la suma respecto a la agrupación (Asociatividad Generalizada), basándonos rigurosamente en la Lección 2 del texto de M. Postnikov (Lectures in Geometry: Semester I - Analytic Geometry).
Este desarrollo es crucial porque transforma el axioma básico de la asociatividad (que aplica a tres elementos) en una herramienta útil para el álgebra lineal, que opera con combinaciones lineales de $n$ vectores.
2. Independencia de la suma respecto a la agrupación (Asociatividad Generalizada)
El Axioma 1° del espacio vectorial establece que para tres vectores cualesquiera $\mathbf{a}, \mathbf{b}, \mathbf{c}$: $$(\mathbf{a} + \mathbf{b}) + \mathbf{c} = \mathbf{a} + (\mathbf{b} + \mathbf{c})$$ Sin embargo, el álgebra vectorial requiere sumar una cantidad arbitraria de vectores. Postnikov demuestra que esta propiedad binaria se extiende a $n$ vectores.
A. Definición del Problema y Conceptos Previos
Cuando sumamos $n$ términos $\mathbf{a}_1, \mathbf{a}_2, \dots, \mathbf{a}_n$, realizamos necesariamente $n-1$ operaciones de adición. Existen muchas formas de agrupar estas operaciones mediante paréntesis. Para sistematizar la prueba de que todas dan el mismo resultado, Postnikov introduce dos conceptos técnicos: el Rango y la Suma Normal.
1. El Rango de una disposición de paréntesis En cualquier agrupación de paréntesis para una suma de $n$ términos, hay una última adición que se realiza (la operación más externa). Esta operación suma dos grandes bloques:
- Un primer bloque $\mathfrak{A}$ que contiene la suma de los términos $\mathbf{a}_1, \dots, \mathbf{a}_{k-1}$.
- Un segundo bloque $\mathfrak{B}$ que contiene la suma de los términos $\mathbf{a}_k, \dots, \mathbf{a}_n$.
El índice $k$ ($2 \le k \le n$) que marca el inicio del segundo bloque determina el rango de la suma.
- Ejemplo: En la suma $((\mathbf{a}_1 + \mathbf{a}_2) + \mathbf{a}_3) + (\mathbf{a}_4 + \mathbf{a}_5)$, la última operación suma el grupo $\mathbf{a}_1..\mathbf{a}_3$ con el grupo $\mathbf{a}_4..\mathbf{a}_5$. Aquí el corte está en el 4, por lo que el rango es 4.
2. La Suma Normal Postnikov define inductivamente la "suma con agrupación normal" como aquella donde los paréntesis se acumulan a la izquierda, de modo que el último término $\mathbf{a}_n$ se suma solo al final:
- Para $n=3$, la suma normal es $(\mathbf{a}_1 + \mathbf{a}_2) + \mathbf{a}_3$.
- Para $n$ términos, la suma normal tiene la forma $\mathfrak{A} + \mathbf{a}_n$, donde $\mathfrak{A}$ es la suma normal de los $n-1$ términos anteriores.
- Visualmente: $((\dots(\mathbf{a}_1 + \mathbf{a}_2) + \mathbf{a}_3) + \dots ) + \mathbf{a}_n$.
B. Teorema de Asociatividad Generalizada
Teorema: La suma de $n \ge 3$ vectores es independiente de la colocación de los paréntesis; específicamente, cualquier agrupación es igual a la "suma normal".
C. La Prueba (por Inducción sobre $n$)
La demostración es un ejemplo clásico de inducción matemática combinada con la manipulación del rango.
1. Base de la inducción: Para $n=3$, la afirmación se reduce directamente al Axioma 1°: $(\mathbf{a} + \mathbf{b}) + \mathbf{c} = \mathbf{a} + (\mathbf{b} + \mathbf{c})$. La suma normal es el lado izquierdo, y cualquier otra agrupación es el lado derecho (o idéntica).
2. Hipótesis inductiva: Asumimos que el teorema es cierto para cualquier suma de menos de $n$ términos. Es decir, para cualquier cantidad de vectores menor que $n$, el resultado no depende de los paréntesis y podemos reorganizarlos como queramos (específicamente a su forma normal).
3. Paso inductivo: Consideramos una suma arbitraria de $n$ vectores $\mathbf{a}_1, \dots, \mathbf{a}_n$ con una agrupación de paréntesis que tiene un rango $k$. La suma tiene la estructura: $\mathfrak{A} + \mathfrak{B}$, donde $\mathfrak{B}$ comienza con el vector $\mathbf{a}_k$.
Analizamos dos casos para $k$:
-
Caso 1: El rango es $k=n$. La suma tiene la forma $\mathfrak{A} + \mathbf{a}_n$. Aquí, el primer sumando $\mathfrak{A}$ es una suma de $n-1$ vectores. Por la hipótesis inductiva, $\mathfrak{A}$ es igual a la suma normal de esos $n-1$ vectores. Por definición, si sumamos $\mathbf{a}_n$ a la suma normal de los anteriores, obtenemos la suma normal de los $n$ vectores. Este caso ya está resuelto.
-
Caso 2: El rango es $k < n$. La suma tiene la forma $\mathfrak{A} + \mathfrak{B}$, donde $\mathfrak{B}$ es una suma de los vectores $\mathbf{a}_k, \dots, \mathbf{a}_n$ (al menos dos vectores, ya que $k < n$).
- Como $\mathfrak{B}$ tiene menos de $n$ vectores, aplicamos la hipótesis inductiva a $\mathfrak{B}$. Podemos asumir que $\mathfrak{B}$ está agrupado de tal forma que su primer elemento está separado del resto: $\mathfrak{B} = \mathbf{a}_k + \mathfrak{C}$.
- Ahora aplicamos el Axioma 1° a la estructura global: $$\mathfrak{A} + \mathfrak{B} = \mathfrak{A} + (\mathbf{a}_k + \mathfrak{C}) = (\mathfrak{A} + \mathbf{a}_k) + \mathfrak{C}$$
- Analicemos el resultado: Ahora la última operación suma el bloque $(\mathfrak{A} + \mathbf{a}_k)$ con $\mathfrak{C}$. El primer bloque ahora termina en $\mathbf{a}_k$. Por lo tanto, el nuevo rango es $k+1$.
Conclusión del proceso: Hemos demostrado que podemos transformar una suma de rango $k$ en una suma equivalente de rango $k+1$. Repitiendo este proceso paso a paso, podemos elevar el rango de cualquier agrupación arbitraria hasta llegar al rango $n$. Una vez alcanzado el rango $n$, estamos en el Caso 1, que sabemos que es igual a la suma normal. Por lo tanto, cualquier agrupación es igual a la suma normal.
D. Consecuencia Práctica
Dado que todas las formas de agrupar los sumandos mediante paréntesis conducen al mismo resultado vectorial, el uso de paréntesis se vuelve superfluo en las sumas. En el álgebra vectorial, estamos autorizados a omitir los paréntesis y escribir simplemente: $$\mathbf{a} + \mathbf{b} + \mathbf{c} + \mathbf{d} + \dots + \mathbf{a}_n$$ sin ambigüedad alguna.
Desarrolla el Tema 4, que ya está en el módulo 2
- Tema 4: Dependencia e Independencia Lineal
- Definición de combinación lineal y dependencia.
- Propiedades de los conjuntos linealmente dependientes (el papel del vector cero, subconjuntos).
Aquí tienes el desarrollo del Tema 4: Dependencia e Independencia Lineal, basado estrictamente en la Lección 3 del libro Lectures in Geometry: Semester I - Analytic Geometry de M. Postnikov.
En esta lección, el autor formaliza la relación entre vectores, pasando de operaciones binarias simples a estructuras colectivas dentro del espacio vectorial.
Tema 4: Dependencia e Independencia Lineal
Este tema se centra en determinar cuándo un grupo de vectores aporta "nueva" información geométrica o si, por el contrario, algunos son redundantes y pueden expresarse mediante los otros.
1. Definición de Combinación Lineal y Dependencia
Para establecer estas definiciones, Postnikov parte de una familia de vectores $\mathbf{a}_1, \dots, \mathbf{a}_m$ en un espacio vectorial $\mathcal{T}$.
A. Combinación Lineal Una combinación lineal de los vectores $\mathbf{a}_1, \dots, \mathbf{a}_m$ con coeficientes $k_1, \dots, k_m$ es un vector de la forma: $$k_1\mathbf{a}_1 + \dots + k_m\mathbf{a}_m$$ Se dice que este vector resultante es linealmente expresable en términos de los vectores $\mathbf{a}_1, \dots, \mathbf{a}_m$.
B. Combinaciones Triviales y No Triviales
- Combinación Trivial: Es aquella donde todos los coeficientes son cero ($k_1 = \dots = k_m = 0$). El resultado de una combinación trivial es siempre el vector cero ($\mathbf{0}$).
- Combinación No Trivial: Es aquella donde al menos uno de los coeficientes $k_i$ es diferente de cero.
C. Dependencia e Independencia Lineal
- Dependencia Lineal: Una familia de vectores $\mathbf{a}_1, \dots, \mathbf{a}_m$ se dice linealmente dependiente si existe una combinación lineal nula no trivial. Es decir, si existen números $k_1, \dots, k_m$, no todos cero, tales que: $$k_1\mathbf{a}_1 + \dots + k_m\mathbf{a}_m = \mathbf{0}$$
- Independencia Lineal: En caso contrario, la familia se dice linealmente independiente. Esto implica que la única forma de obtener el vector cero mediante una combinación lineal de estos vectores es que todos los coeficientes sean cero (la combinación trivial).
Nota sobre el conjunto vacío: Postnikov define que una familia vacía de vectores ($m=0$) es, por definición, linealmente independiente.
2. Propiedades de los Conjuntos Linealmente Dependientes
Postnikov deriva varias propiedades fundamentales que permiten identificar rápidamente la dependencia sin necesidad de resolver ecuaciones complejas.
A. El Papel del Vector Cero Una propiedad inmediata es que cualquier familia (o conjunto) de vectores que contenga el vector cero ($\mathbf{0}$) es automáticamente linealmente dependiente.
- Razón: Basta con asignar el coeficiente $1$ al vector cero y $0$ a todos los demás vectores. Esto produce una combinación lineal nula no trivial: $1\cdot\mathbf{0} + 0\cdot\mathbf{a}_2 + \dots = \mathbf{0}$.
B. Propiedad de los Subconjuntos (Herencia) Existe una relación jerárquica en la dependencia:
- Dependencia: Si una familia de vectores posee una subfamilia (o subconjunto) que es linealmente dependiente, entonces la familia completa es linealmente dependiente. Simplemente se añaden coeficientes cero a los vectores que no pertenecen a la subfamilia dependiente.
- Independencia: Inversamente, cualquier subconjunto de un conjunto linealmente independiente es también linealmente independiente (definición 5 implícita en).
C. Expresabilidad Lineal Postnikov conecta la dependencia con la capacidad de "despejar" un vector:
- Una familia de vectores es linealmente dependiente si y solo si al menos uno de sus vectores puede expresarse linealmente en términos de los otros vectores.
- Refinamiento (Teorema de orden): Una familia $\mathbf{a}_1, \dots, \mathbf{a}_m$ es linealmente dependiente si y solo si existe un vector $\mathbf{a}_i$ que se puede expresar linealmente en términos de los vectores anteriores $\mathbf{a}_1, \dots, \mathbf{a}_{i-1}$ (si $i=1$, esto implica que $\mathbf{a}_1 = \mathbf{0}$).
D. Unicidad de la Expresión Una consecuencia vital de la independencia lineal es la unicidad: Una familia de vectores es linealmente independiente si y solo si cualquier vector que pueda expresarse linealmente mediante ellos lo hace de una manera única. Si hubiera dos formas distintas de expresar un vector, su resta daría lugar a una relación de dependencia no trivial.
DESARROLLA CON DETALLE EL TEOREMA DEL ORDEN
- Refinamiento (Teorema de orden): Una familia
a1,…,am es linealmente dependiente si y solo si existe un vectorai que se puede expresar linealmente en términos de los vectores anterioresa1,…,ai−1 (sii=1 , esto implica quea1=0 ).
Basándonos en el desarrollo de la Lección 3 del libro Lectures in Geometry: Semester I - Analytic Geometry de M. Postnikov (tratado en nuestra conversación anterior), aquí tienes el desarrollo detallado del Teorema del Orden (o Criterio de Dependencia Lineal basado en el orden).
Nota sobre las fuentes: Las nuevas fuentes proporcionadas (1178244402Postnikov.pdf y 16555065Postnikov.pdf) tratan sobre Topología Algebraica (específicamente sistemas y torres de Postnikov, cohomología y espacios de Eilenberg-Mac Lane) y no contienen el material de álgebra lineal básica (espacios vectoriales) de la Lección 3 que estamos discutiendo. Por lo tanto, la siguiente explicación se deriva estrictamente de la lógica establecida en nuestro historial de conversación sobre el "Semestre 1" de Postnikov.
Refinamiento: El Teorema del Orden
Este teorema es una herramienta fundamental para identificar cuál es el vector que sobra en un conjunto linealmente dependiente, basándose en el orden en que se enumeran.
1. Enunciado Formal
Sea $\mathcal{A} = (a_1, a_2, \dots, a_m)$ una familia ordenada de vectores en un espacio vectorial $\mathcal{T}$. La familia $\mathcal{A}$ es linealmente dependiente si y solo si existe un índice $k$ ($1 \le k \le m$) tal que el vector $a_k$ se puede expresar como combinación lineal de los vectores anteriores $(a_1, \dots, a_{k-1})$.
- Caso especial: Si $k=1$, la condición "expresarse en términos de los vectores anteriores" (que es un conjunto vacío) significa que $a_1 = \mathbf{0}$.
2. Demostración Detallada
La demostración es una doble implicación ($\iff$).
A. Suficiencia ($\Leftarrow$) Si un vector depende de los anteriores, la familia es dependiente.
- Supongamos que existe un índice $k$ tal que $a_k$ es combinación lineal de los anteriores: $$a_k = \lambda_1 a_1 + \lambda_2 a_2 + \dots + \lambda_{k-1} a_{k-1}$$
- Podemos reescribir esta igualdad pasando $a_k$ al otro lado (restando): $$\lambda_1 a_1 + \dots + \lambda_{k-1} a_{k-1} + (-1)a_k = \mathbf{0}$$
- Ahora, consideremos la familia completa $(a_1, \dots, a_m)$. Podemos construir una combinación lineal para todos ellos asignando coeficiente $0$ a los vectores posteriores a $a_k$ ($a_{k+1}, \dots, a_m$): $$\lambda_1 a_1 + \dots + (-1)a_k + 0 a_{k+1} + \dots + 0 a_m = \mathbf{0}$$
- Conclusión: Hemos encontrado una combinación lineal igual al vector cero donde no todos los coeficientes son nulos (específicamente, el coeficiente de $a_k$ es $-1 \neq 0$). Por la definición dada en el Tema 4, la familia es linealmente dependiente.
B. Necesidad ($\Rightarrow$) Si la familia es dependiente, existe un vector que depende de los anteriores.
Esta es la parte constructiva y más importante del teorema.
- Supongamos que la familia $(a_1, \dots, a_m)$ es linealmente dependiente.
- Por definición, existen escalares $\lambda_1, \dots, \lambda_m$, no todos nulos, tales que: $$\lambda_1 a_1 + \lambda_2 a_2 + \dots + \lambda_m a_m = \mathbf{0}$$
- El paso clave (El índice máximo): Como no todos los coeficientes son cero, debe haber un último coeficiente que sea distinto de cero. Sea $k$ el mayor índice tal que $\lambda_k \neq 0$. Esto implica que $\lambda_{k+1} = \dots = \lambda_m = 0$.
- La ecuación del paso 2 se reduce a: $$\lambda_1 a_1 + \dots + \lambda_k a_k = \mathbf{0}$$
- Como hemos establecido que $\lambda_k \neq 0$, podemos despejar el vector $a_k$. Restamos los otros términos y dividimos por $\lambda_k$: $$\lambda_k a_k = -(\lambda_1 a_1 + \dots + \lambda_{k-1} a_{k-1})$$ $$a_k = \left(-\frac{\lambda_1}{\lambda_k}\right)a_1 + \dots + \left(-\frac{\lambda_{k-1}}{\lambda_k}\right)a_{k-1}$$
- Conclusión: El vector $a_k$ se ha expresado como una combinación lineal de los vectores que le preceden en la lista $(a_1, \dots, a_{k-1})$.
Nota sobre el caso $k=1$: Si el primer coeficiente no nulo es el primero ($\lambda_1$), la ecuación es $\lambda_1 a_1 = 0$. Como $\lambda_1 \neq 0$, esto obliga a que $a_1 = \mathbf{0}$. Esto concuerda con el teorema: $a_1$ depende del conjunto vacío de vectores anteriores.
3. Significado e Importancia
Este refinamiento del teorema de dependencia lineal es crucial para la construcción de bases (Tema 6) y la definición de dimensión (Tema 7) en el texto de Postnikov, por las siguientes razones:
- Algoritmo de Construcción: Nos permite tomar un conjunto arbitrario de vectores y "limpiarlo" para formar una base. Recorremos los vectores en orden $a_1, a_2, \dots$; si encontramos uno que sea combinación de los anteriores, lo eliminamos sin reducir el espacio generado (el span).
- Visión Geométrica:
- $a_1$: Es independiente si no es el punto cero.
- $a_2$: Es independiente si no está en la recta generada por $a_1$.
- $a_3$: Es independiente si no está en el plano generado por $a_1, a_2$.
- En el momento en que un vector $a_k$ "cae" dentro del subespacio geométrico creado por sus predecesores, se declara la dependencia lineal del conjunto.
Ya estamos metidos de lleno en el módulo 2. Desarrolla el tema 5
- Tema 5: El Teorema Fundamental de la Dependencia Lineal
- El lema de intercambio (si
m>n vectores se expresan medianten vectores, son dependientes). - Demostración algebraica mediante sistemas de ecuaciones lineales.
- El lema de intercambio (si
Basándome en nuestra historial de conversación y en la estructura del curso que diseñamos sobre el libro Lectures in Geometry: Semester I de M. Postnikov, aquí tienes el desarrollo del Tema 5.
Nota importante sobre las fuentes: Las nuevas fuentes proporcionadas (1178244402Postnikov.pdf y 16555065Postnikov.pdf) tratan sobre Topología Algebraica avanzada (sistemas de Postnikov, cohomología, espacios de Eilenberg-Mac Lane) y no contienen el material básico de álgebra lineal (espacios vectoriales) correspondiente al Semestre 1 de Postnikov. Por lo tanto, la siguiente explicación se desarrolla basándose en los principios matemáticos estándar que corresponden al índice que creamos previamente, y no proviene de los extractos PDF suministrados.
Tema 5: El Teorema Fundamental de la Dependencia Lineal
Este tema es el corazón del álgebra lineal teórica, ya que proporciona la justificación rigurosa para el concepto de "dimensión". Sin este teorema, no podríamos afirmar que todas las bases de un espacio vectorial tienen el mismo número de elementos.
1. El Lema Fundamental (Lema de Intercambio o de Steinitz)
El enunciado preciso, siguiendo el estilo riguroso de Postnikov, conecta dos familias de vectores basándose en su capacidad de expresión.
Teorema: Sean $\mathcal{A} = (\mathbf{a}_1, \dots, \mathbf{a}_n)$ y $\mathcal{B} = (\mathbf{b}_1, \dots, \mathbf{b}_m)$ dos familias de vectores en un espacio vectorial. Si se cumple que:
- Todo vector de la familia $\mathcal{B}$ puede expresarse como combinación lineal de los vectores de la familia $\mathcal{A}$.
- El número de vectores en $\mathcal{B}$ es mayor que el número de vectores en $\mathcal{A}$ (es decir, $m > n$).
Entonces: La familia $\mathcal{B}$ es linealmente dependiente.
Interpretación: No podemos tener una cantidad "mayor" de vectores linealmente independientes generados por una cantidad "menor" de vectores. Si intentas meter $n+1$ vectores en un espacio generado por $n$ vectores, al menos uno sobrará (será dependiente).
2. Demostración Algebraica mediante Sistemas de Ecuaciones
La prueba más directa y robusta, que evita la intuición geométrica (la cual puede fallar en dimensiones superiores), utiliza la teoría de sistemas de ecuaciones lineales homogéneas.
Paso 1: Planteamiento de la dependencia Queremos investigar si la familia $\mathcal{B} = (\mathbf{b}_1, \dots, \mathbf{b}_m)$ es dependiente. Para ello, planteamos una combinación lineal igualada a cero con incógnitas $x_1, \dots, x_m$:
$$x_1\mathbf{b}_1 + x_2\mathbf{b}_2 + \dots + x_m\mathbf{b}_m = \mathbf{0} \quad (*)$$
Si logramos demostrar que existe una solución no trivial (donde no todos los $x_i$ son cero), habremos probado que son linealmente dependientes.
Paso 2: Uso de la hipótesis de expresabilidad Sabemos que cada $\mathbf{b}_j$ se expresa mediante los $\mathbf{a}_i$. Escribamos esto formalmente usando escalares $\lambda_{ij}$:
$$\mathbf{b}_1 = \lambda_{11}\mathbf{a}_1 + \lambda_{21}\mathbf{a}_2 + \dots + \lambda_{n1}\mathbf{a}_n$$ $$\mathbf{b}_2 = \lambda_{12}\mathbf{a}_1 + \lambda_{22}\mathbf{a}_2 + \dots + \lambda_{n2}\mathbf{a}_n$$ $$...$$ $$\mathbf{b}_m = \lambda_{1m}\mathbf{a}_1 + \lambda_{2m}\mathbf{a}_2 + \dots + \lambda_{nm}\mathbf{a}_n$$
Paso 3: Sustitución y Reordenamiento Sustituimos estas expresiones en la ecuación $(*)$:
$$x_1(\sum_{i=1}^n \lambda_{i1}\mathbf{a}_i) + x_2(\sum_{i=1}^n \lambda_{i2}\mathbf{a}_i) + \dots + x_m(\sum_{i=1}^n \lambda_{im}\mathbf{a}_i) = \mathbf{0}$$
Ahora, reagrupamos los términos según los vectores $\mathbf{a}_i$. Es decir, factorizamos $\mathbf{a}_1$, luego $\mathbf{a}_2$, etc.:
$$\mathbf{a}_1(x_1\lambda_{11} + \dots + x_m\lambda_{1m}) + \dots + \mathbf{a}_n(x_1\lambda_{n1} + \dots + x_m\lambda_{nm}) = \mathbf{0}$$
Paso 4: El Sistema Homogéneo Para que la ecuación anterior se cumpla, es suficiente (aunque no estrictamente necesario si los $\mathbf{a}_i$ fueran dependientes, pero buscamos una solución suficiente) que los coeficientes de cada vector $\mathbf{a}_i$ sean cero. Esto nos lleva al siguiente sistema de ecuaciones lineales, donde las incógnitas son las $x$:
$$ \begin{cases} \lambda_{11}x_1 + \lambda_{12}x_2 + \dots + \lambda_{1m}x_m = 0 \\ \lambda_{21}x_1 + \lambda_{22}x_2 + \dots + \lambda_{2m}x_m = 0 \\ \vdots \\ \lambda_{n1}x_1 + \lambda_{n2}x_2 + \dots + \lambda_{nm}x_m = 0 \end{cases} $$
Paso 5: Conclusión mediante conteo de ecuaciones Analicemos el sistema:
- Número de ecuaciones: $n$ (una por cada vector de la familia $\mathcal{A}$).
- Número de incógnitas: $m$ (una por cada coeficiente $x_j$ de la familia $\mathcal{B}$).
Por hipótesis del teorema, sabemos que $m > n$.
Existe un teorema fundamental del álgebra (que Postnikov asume o demuestra previamente) que establece: "Un sistema homogéneo de ecuaciones lineales con más incógnitas que ecuaciones siempre tiene una solución no trivial (distinta de cero)."
Por lo tanto, existen valores $x_1, \dots, x_m$, no todos nulos, que satisfacen el sistema. Esto implica que la combinación lineal original $(*)$ se satisface con coeficientes no nulos.
Conclusión: La familia $\mathcal{B} = (\mathbf{b}_1, \dots, \mathbf{b}_m)$ es linealmente dependiente.
Resumen del Módulo 2 hasta el momento: Hemos definido qué es la dependencia lineal (Tema 4) y ahora tenemos una herramienta potente (Tema 5) que nos asegura que si tenemos un conjunto generador de tamaño $n$, no puede haber más de $n$ vectores independientes en ese espacio. Esto prepara el terreno para definir la Base y la Dimensión en los siguientes temas.
INTENTAMOS REFORMULAR LA DEMOSTRACIÓN DEL TEOREMA DE DEPENDENCIA LINEAL, SIN USAR SISTEMAS DE ECUACIONES HOMOGÉNEOS
Claro que sí. Basándonos en el texto original de M. Postnikov (específicamente en las secciones que cubren el Teorema 1 y el Lema asociado en las páginas 32 y 33 del texto Semester I), aquí tienes la reconstrucción de la prueba. Esta demostración utiliza el método de sustitución (o intercambio de Steinitz) en lugar de sistemas de ecuaciones lineales.
Enunciado del Lema
Según los extractos del texto de Postnikov proporcionados, el enunciado del Lema necesario para probar el Teorema de la Dependencia Lineal (sin usar sistemas de ecuaciones) es el siguiente:
Lema: Suponiendo que cada vector de la familia (2) $\mathbf{a}_1, \dots, \mathbf{a}_m$ se puede expresar linealmente en términos de los vectores (3) $\mathbf{b}_1, \dots, \mathbf{b}_n$, asuma que la familia (2) es linealmente independiente. Entonces, para cualquier $s = 0, \dots, n$ existe una familia de vectores:
(4) $\mathbf{c}_1^{(s)}, \dots, \mathbf{c}_n^{(s)}$
con las siguientes propiedades:
- (a) Cada vector de la familia (2) se puede expresar linealmente en términos de los vectores de la familia (4).
- (b) Los primeros $s$ vectores de la familia (4) coinciden con los primeros $s$ vectores de la familia (2): $\mathbf{c}_1^{(s)} = \mathbf{a}_1, \dots, \mathbf{c}_s^{(s)} = \mathbf{a}_s$,.
Demostración del Lema
Enunciado: Suponiendo que cada vector de la familia $\mathbf{a}_1, \dots, \mathbf{a}_m$ se puede expresar linealmente en términos de los vectores $\mathbf{b}_1, \dots, \mathbf{b}_n$, y asumiendo que la familia $\mathbf{a}$ es linealmente independiente. Entonces, para cualquier $s = 0, \dots, n$, existe una familia de $n$ vectores: $$(4) \quad \mathbf{c}_1^{(s)}, \dots, \mathbf{c}_n^{(s)}$$ con las siguientes propiedades: (a) Cada vector de la familia original $\mathbf{a}$ se puede expresar linealmente en términos de los vectores de (4). (b) Los primeros $s$ vectores de la familia (4) coinciden con los primeros $s$ vectores de la familia $\mathbf{a}$: $$\mathbf{c}_1^{(s)} = \mathbf{a}_1, \dots, \mathbf{c}_s^{(s)} = \mathbf{a}_s$$
Prueba (por inducción sobre $s$):
-
Base de la inducción ($s=0$): Para $s=0$, la condición (b) es vacía (no hay vectores $\mathbf{a}$ que igualar). Podemos tomar simplemente la familia original $\mathbf{b}$ como la familia (4). La condición (a) se cumple por la hipótesis del teorema (todos los $\mathbf{a}$ dependen de los $\mathbf{b}$). El lema es cierto para $s=0$.
-
Paso inductivo: Suponemos que el lema es cierto para un número $s < n$. Es decir, existe una familia $\mathbf{c}^{(s)}$ que comienza con $\mathbf{a}_1, \dots, \mathbf{a}_s$ y luego contiene $n-s$ vectores "restantes" (que provienen de la familia $\mathbf{b}$, aunque posiblemente reordenados o modificados). Llamemos a estos vectores restantes $\mathbf{d}_{s+1}, \dots, \mathbf{d}_n$. Así, la familia es: $(\mathbf{a}_1, \dots, \mathbf{a}_s, \mathbf{d}_{s+1}, \dots, \mathbf{d}_n)$.
Queremos probarlo para $s+1$. Consideremos el siguiente vector de la familia $\mathbf{a}$, que es $\mathbf{a}_{s+1}$.
-
Por la propiedad (a) de la hipótesis inductiva, $\mathbf{a}_{s+1}$ se puede expresar linealmente en términos de la familia actual: $$\mathbf{a}_{s+1} = \lambda_1 \mathbf{a}_1 + \dots + \lambda_s \mathbf{a}_s + \mu_{s+1} \mathbf{d}_{s+1} + \dots + \mu_n \mathbf{d}_n$$
-
Punto clave: No todos los coeficientes $\mu$ (los asociados a la parte $\mathbf{d}$) pueden ser cero. Si todos fueran cero, $\mathbf{a}_{s+1}$ dependería exclusivamente de $\mathbf{a}_1, \dots, \mathbf{a}_s$. Según la propiedad 5 de la dependencia lineal (Teorema del Orden), esto implicaría que la familia $\mathbf{a}$ es linealmente dependiente, lo cual contradice nuestra suposición inicial de independencia.
-
Por lo tanto, existe al menos un índice $i$ (donde $s+1 \le i \le n$) tal que el coeficiente de $\mathbf{d}_i$ no es cero. Para facilitar la notación, reordenamos para que este sea el vector $\mathbf{d}_{s+1}$ (el vector $\mathbf{c}_{s+1}^{(s)}$ en la notación del texto).
-
Como el coeficiente de $\mathbf{d}_{s+1}$ no es cero, podemos despejar $\mathbf{d}_{s+1}$ en la ecuación anterior, expresándolo como combinación lineal de $\mathbf{a}_{s+1}$, los $\mathbf{a}$ anteriores y los $\mathbf{d}$ restantes.
-
Intercambio: Construimos la nueva familia para $s+1$ reemplazando $\mathbf{d}_{s+1}$ por $\mathbf{a}_{s+1}$. La nueva familia es: $$(\mathbf{a}_1, \dots, \mathbf{a}_s, \mathbf{a}_{s+1}, \mathbf{d}_{s+2}, \dots, \mathbf{d}_n)$$
Esta nueva familia cumple la propiedad (b) (los primeros $s+1$ vectores son los $\mathbf{a}$). También cumple la propiedad (a): cualquier vector que se pudiera expresar con la familia anterior se puede expresar con la nueva, porque el vector eliminado ($\mathbf{d}_{s+1}$) es recuperable mediante una combinación lineal de los nuevos.
El lema queda demostrado por inducción.
-
Demostración del Teorema 1 (Teorema de la Dependencia Lineal)
Enunciado: Sean dos familias de vectores $\mathbf{a}_1, \dots, \mathbf{a}_m$ y $\mathbf{b}_1, \dots, \mathbf{b}_n$. Si cada vector de la familia $\mathbf{a}$ se puede expresar linealmente en términos de la familia $\mathbf{b}$, y $m > n$, entonces la familia $\mathbf{a}_1, \dots, \mathbf{a}_m$ es linealmente dependiente.
Prueba (usando el Lema):
-
Supongamos, por reducción al absurdo, que el teorema es falso. Es decir, asumamos que $m > n$ pero que la familia $\mathbf{a}_1, \dots, \mathbf{a}_m$ es linealmente independiente.
-
Si la familia es independiente, podemos aplicar el Lema que acabamos de probar. Aplicamos el Lema para el valor máximo posible de $s$, que es $s = n$.
-
El Lema afirma que existe una familia de $n$ vectores tal que:
- (a) Todos los vectores de la familia original $\mathbf{a}$ dependen de ella.
- (b) Los primeros $n$ vectores de esta familia coinciden con los primeros $n$ vectores de la familia $\mathbf{a}$.
Dado que la familia tiene tamaño $n$ (porque proviene de reemplazar vectores en la familia $\mathbf{b}$ de tamaño $n$), la familia resultante es exactamente: $$(\mathbf{a}_1, \mathbf{a}_2, \dots, \mathbf{a}_n)$$
-
Sin embargo, por hipótesis tenemos $m > n$. Esto significa que existe al menos un vector más en la familia $\mathbf{a}$, digamos $\mathbf{a}_{n+1}$ (o $\mathbf{a}_m$).
-
Según la propiedad (a) del Lema, cualquier vector de la familia original $\mathbf{a}$ se puede expresar mediante la familia generada. Por lo tanto, $\mathbf{a}_{n+1}$ (o $\mathbf{a}_m$) se puede expresar linealmente en términos de $\mathbf{a}_1, \dots, \mathbf{a}_n$.
-
Esto implica que la familia completa $\mathbf{a}_1, \dots, \mathbf{a}_m$ es linealmente dependiente (un vector depende de los anteriores), lo cual contradice nuestra suposición inicial de independencia.
Conclusión: La suposición de que $m > n$ vectores independientes pueden generarse a partir de $n$ vectores debe ser falsa. Por lo tanto, si $m > n$, la familia $\mathbf{a}$ es dependiente.
Como parte de mis esfuerzos por comprender el lema, qué es lo que quiere decir y también cómo se demuestra, he encargado el desarrollo de un caso particular del enunciado y demostración del lema, con m=8, n=6, s=4
Basado en el texto de M. Postnikov, Lecciones de geometría: Semestre 1, específicamente en la Lección 3 donde se trata la dependencia lineal y el lema de intercambio (Lemma en las fuentes), aquí tienes la respuesta aplicada a tu caso concreto.
1) Enunciado del Lema para $m=8, n=6, s=4$
Supongamos que tenemos una familia de 8 vectores $\mathcal{A} = (a_1, a_2, \dots, a_8)$ y una familia de 6 vectores $\mathcal{B} = (b_1, b_2, \dots, b_6)$. Supongamos que cada vector de la familia $\mathcal{A}$ se puede expresar linealmente en términos de los vectores de la familia $\mathcal{B}$ y asumamos que la familia $\mathcal{A}$ es linealmente independiente.
Entonces, para $s=4$, existe una familia de 6 vectores: $$\mathcal{C}^{(4)} = (c_1^{(4)}, c_2^{(4)}, c_3^{(4)}, c_4^{(4)}, c_5^{(4)}, c_6^{(4)})$$
con las siguientes propiedades:
- (a) Cada vector de la familia original $\mathcal{A}$ (los 8 vectores) se puede expresar linealmente en términos de los vectores de esta nueva familia $\mathcal{C}^{(4)}$.
- (b) Los primeros $s=4$ vectores de la familia $\mathcal{C}^{(4)}$ coinciden con los primeros 4 vectores de la familia $\mathcal{A}$. Es decir: $$(a_1, a_2, a_3, a_4, d_5, d_6)$$ donde $d_5$ y $d_6$ son vectores provenientes del resto de la base original (vectores de tipo $b$ desplazados o renombrados).
2) Demostración para el caso concreto ($s=4$)
Siguiendo el argumento inductivo de Postnikov, construimos la familia paso a paso, intercambiando vectores de $\mathcal{B}$ por vectores de $\mathcal{A}$.
Paso 0 (Base de la inducción, $s=0$): Tomamos la familia inicial dada por $\mathcal{B}$: $$\mathcal{C}^{(0)} = (b_1, b_2, b_3, b_4, b_5, b_6)$$ Esta familia cumple la propiedad (a) por hipótesis (todos los $a_i$ dependen de ella). La propiedad (b) es vacía porque no hay vectores $a$ que igualar.
Paso 1 ($s=1$): Consideramos el vector $a_1$. Por la propiedad (a), $a_1$ se expresa como combinación lineal de $\mathcal{C}^{(0)}$: $$a_1 = k_1 b_1 + \dots + k_6 b_6$$ Como la familia $\mathcal{A}$ es linealmente independiente, $a_1 \neq 0$, por lo que al menos un coeficiente $k$ es distinto de cero. Supongamos que $k_1 \neq 0$. Podemos despejar $b_1$ e intercambiarlo por $a_1$. Nueva familia: $\mathcal{C}^{(1)} = (a_1, b_2, b_3, b_4, b_5, b_6)$. Esta familia genera el mismo espacio, por lo que todos los vectores de $\mathcal{A}$ siguen dependiendo de ella.
Paso 2 ($s=2$): Consideramos el vector $a_2$. Lo expresamos en términos de la familia actual $\mathcal{C}^{(1)}$: $$a_2 = \lambda_1 a_1 + \mu_2 b_2 + \dots + \mu_6 b_6$$ Argumento crucial de Postnikov: No todos los coeficientes $\mu$ (los que acompañan a los vectores $b$) pueden ser cero. Si todos fueran cero ($ \mu_2 = \dots = \mu_6 = 0$), entonces $a_2 = \lambda_1 a_1$, lo que implicaría que $a_2$ depende linealmente de $a_1$. Esto contradice la hipótesis de que la familia $\mathcal{A}$ es linealmente independiente. Por tanto, algún $\mu_i \neq 0$ (digamos $\mu_2$). Intercambiamos $b_2$ por $a_2$. Nueva familia: $\mathcal{C}^{(2)} = (a_1, a_2, b_3, b_4, b_5, b_6)$.
Paso 3 ($s=3$): Repetimos el proceso para $a_3$ usando la familia $\mathcal{C}^{(2)}$. $$a_3 = \lambda_1 a_1 + \lambda_2 a_2 + \nu_3 b_3 + \dots + \nu_6 b_6$$ Nuevamente, al menos un coeficiente de los vectores $b$ ($\nu_3 \dots \nu_6$) debe ser no nulo, porque si no, $a_3$ dependería solo de $a_1$ y $a_2$, violando la independencia lineal de $\mathcal{A}$. Supongamos $\nu_3 \neq 0$. Intercambiamos $b_3$ por $a_3$. Nueva familia: $\mathcal{C}^{(3)} = (a_1, a_2, a_3, b_4, b_5, b_6)$.
Paso 4 (Paso final para este ejemplo, $s=4$): Tomamos $a_4$ y lo expresamos mediante $\mathcal{C}^{(3)}$: $$a_4 = \gamma_1 a_1 + \gamma_2 a_2 + \gamma_3 a_3 + \rho_4 b_4 + \rho_5 b_5 + \rho_6 b_6$$ Por la independencia lineal de $\mathcal{A}$, $a_4$ no puede depender solo de $(a_1, a_2, a_3)$. Por tanto, al menos uno de los coeficientes $\rho$ (asociados a $b_4, b_5, b_6$) es distinto de cero. Digamos $\rho_4 \neq 0$. Realizamos el intercambio final y obtenemos la familia deseada: $$\mathcal{C}^{(4)} = (a_1, a_2, a_3, a_4, b_5, b_6)$$
Conclusión: Hemos construido una familia de $n=6$ elementos que contiene los primeros $s=4$ elementos de $\mathcal{A}$ y mantiene la propiedad de que toda la familia $\mathcal{A}$ se puede expresar linealmente a través de ella.
Nota: Si continuáramos este proceso hasta $s=6$, agotaríamos los vectores $b$. Al intentar hacer el paso para $a_7$, nos daríamos cuenta de que ya no quedan vectores $b$ para intercambiar, lo que probaría que $a_7$ depende de $a_1 \dots a_6$, demostrando que es imposible que $\mathcal{A}$ sea independiente si $m > n$ (Teorema de Steinitz).
Comentarios
Publicar un comentario
Los comentarios son bienvenidos siempre que sean respetuosos y corteses y traten del asunto de la entrada.
Dirige un correo a martinjaime80@hotmail.com informando de que deseas publicar un comentario