18/3/20
Capítulo 3 do livro texto
videos https://www.youtube.com/watch?v=kYB8IZa5AuE e https://www.youtube.com/watch?v=XkY2DOUCWMU
T é a transformação linear de um espaço vetorial a outro espaço ou ao mesmo espaço tal que
portanto
onde \vec{0}' é o vetor 0 no novo espaço.
Outras transformações lineares
diferenciação \frac{d}{dx}
integral definida \int_{a}^{b} f dx
integral indefinida \int f dx
Uma transformação linear de um espaço nele mesmo
f: V \rightarrow V
Se V é um espaço R^n então transformações lineares nesse espaço podem ser representadas por matrizes quadradas.
\left[ \begin{array}{rrr} 1 & 2 & 3\\ -3 &0 &9 \\ 10 & 20 & -30 \end{array} \right] \left[ \begin{array}{r} a \\ b \\ c \end{array} \right] = \left[ \begin{array}{r} 1a+2b+3c\\ -3a + 0b + 9 c\\ 10a + 20b -30 c \end{array} \right]
o produto escalar de cada linha da matriz pelo vetor.
[1,0,0] é a 1a base
\left[ \begin{array}{rrr} 1 & 2 & 3\\ -3 &0 &9 \\ 10 & 20 & -30 \end{array} \right] \left[ \begin{array}{r} 1 \\ 0 \\ 0 \end{array} \right] = \left[ \begin{array}{r} 1\\ -3\\ 10 \end{array} \right]
[0,1,0] é a segunda base
\left[ \begin{array}{rrr} 1 & 2 & 3\\ -3 &0 &9 \\ 10 & 20 & -30 \end{array} \right] \left[ \begin{array}{r} 0 \\ 1 \\ 0 \end{array} \right] = \left[ \begin{array}{r} 2\\ 0\\ 20 \end{array} \right]
As colunas da matriz são os novos vetores correspondente as bases.
\left[ \begin{array}{rrr} 1 & 2 & 3\\ -3 &0 &9 \\ 10 & 20 & -30 \end{array} \right] \left[ \begin{array}{r} a \\ b \\ c \end{array} \right] = a\left[ \begin{array}{r} 1\\ -3\\ 10 \end{array} \right] + b\left[ \begin{array}{r} 2\\ 0\\ 20 \end{array} \right] + c\left[ \begin{array}{r} 3\\ -9\\ -30 \end{array} \right] = \left[ \begin{array}{r} 1a+2b+3c\\ -3a + 0b + 9 c\\ 10a + 20b -30 c \end{array} \right]
Voce só precisa saber para onde as bases vão (que são as colunas da matriz). Isso determina
Note que uma transformação linear gera um ponto NOVO. Não é o ponto velho numa base nova (veremos mudança de base mais tarde). O ponto é um novo ponto que tem os mesmo coeficientes do ponto velho mas multiplicando os vetores que correspondem as bases na transformação. Note que o ainda estamos falando da base velha.
\left[ \begin{array}{rrr} 1 & 0 & 0\\ 0 & 1 &0 \\ 0 & 0 & 1 \end{array} \right] = I = I_3
o x e y ficam como estão e o z vai para 0
\left[ \begin{array}{rrr} 1 & 0 & 0\\ 0 & 1 &0 \\ 0 & 0 & 0 \end{array} \right]
Alongar o x por 2 e o y por 3.5
\left[ \begin{array}{rr} 2 & 0 \\ 0 & 3.5 \end{array} \right]
o x vai para y e o y vai para -x
\left[ \begin{array}{rr} 0 & -1 \\ 1 & 0 \end{array} \right]
o x vai para [\cos \theta, \sin \theta]^T e o y vai para [- \sin \theta, \cos \theta]^T
\left[ \begin{array}{rr} \cos \theta & -\sin \theta\\ \sin \theta & \cos \theta \end{array} \right]
em volta do eixo y, por exemplo. O x vai para z, o y fica igual, e o z vai para -x
\left[ \begin{array}{rrr} 0 & 0 & -1\\ 0 & 1 &0 \\ 1 & 0 & 0 \end{array} \right]
x fica igual e o y vai para -y
\left[ \begin{array}{rr} 1 & 0 \\ 0 & -1 \end{array} \right]
Algumas transformações lineares podem gerar 0 mesmo que aplicadas a vetores diferentes de 0
A v = \vec{0}
O null space de uma matriz é o conjunto de vetores que a matriz leva para o 0.
O null space é um subespaço do espaço de origem (verifique)
De vez em quando o null space é trivial, apenas o vetor \vec{0} (para a rotação por exemplo)
Ou pode ser um subespaço “maior”. Para a matriz que projeta para o plano x,y o subespaço gerado pelo \vec{z} é o null space.
De vez em quando o null space é chamado de kernel.
o rank de uma matriz é a dimensão do espaço original, menos a dimensão do null space.
o rank é a dimensão do espaço gerado (span) pelas colunas da matriz.
Uma matriz é full rank, se o rank dela é a dimensão do espaço original (ou seja a matriz não leva nenhum vetor não nulo para o 0)
Troca linhas por colunas numa matriz
\left[ \begin{array}{rrr} 1 & 2 & 3\\ -3 &0 &9 \\ 10 & 20 & -30 \end{array} \right]^T = \left[ \begin{array}{rrr} 1 & -3 & 10\\ 2 &0 & 20 \\ 3 & 9 & -30 \end{array} \right]
Transposta funciona para vetores.
\left[ \begin{array}{r} 0 \\ 1 \\ 10 \end{array} \right]^T = [0\quad 1\quad 10]
E o dual
[0\quad 1\quad 10]^T = \left[ \begin{array}{r} 0 \\ 1 \\ 10 \end{array} \right]
produto escalar tradicional:
<x,y> = x^T y
<\left[ \begin{array}{r} 0 \\ 1 \end{array} \right] \left[ \begin{array}{r} 4 \\ 5 \end{array} \right]> = [0 \quad 1] \left[ \begin{array}{r} 4 \\ 5 \end{array} \right] = 0*4+1*5 = 5
diagonal: só elementos na diagonal, o resto 0
triangular (superior) todos os elementos abaixo da diagonal são 0.
simétrica igual a sua transposta M^T = M
triangular inferior
A (B \vec{x}) = (A B) \vec{x}
Combinação de transformações.
\left[ \begin{array}{rrr} 1 & 2 & 3\\ -3 &0 &9 \\ 10 & 20 & -30 \end{array} \right] \left[ \begin{array}{rrr} a & b & c\\ e &f & g \\ h & i & j \end{array}\right] = \\ \left[ \begin{array}{ccc} <[1,2,3] ,[a,e,h] > & <[1,2,3] ,[b,f,i] > & <[1,2,3] ,[c,g,j] > \\ <[-1,0,9] ,[a,e,h] > &<[-1,0,9] ,[b,f,i] >&<[-1,0,9] ,[c,g,j] > \\ <[10,20,-30] ,[a,e,h] > & <[10,20,-30] ,[b,f,i] > & <[10,20,-30] ,[c,g,j] > \end{array}\right]
normalmente A B \not= B A
há casos onde o produto é comutativo, em particular A I = I A = A
Uma matriz full rank (sem null space) pode ser invertida de tal forma que
A^{-1} A = A A^{-1}= I_n
ou se y = A x então x = A^{-1} y
Matrizes que não são full rank não tem inversa pois todo o null space é mapeado para um só vetor (o 0) e portando não da para inverte o 0.
(A B)^T = B^T A^T
(A B)^{-1} = B^{-1} A^{-1} se eles existem
Relação par a par entre n entidades
Grafos
vértices são as n linha e n colunas da matriz, e o valor da matriz é o valor da aresta,
se não direcionado, a matriz será simétrica
x e y são dois conjuntos de n dados - pareados x_1 corresponde ao y_1 etc
Cov(x,y) = E[(x_i-\bar{x})(y_i - \bar{y})]= \bar{xy}-\bar{x}\bar{y}= \frac{1}{n^2} \sum_i \sum_{j>i} (x_i - x_j)(y_i - y_j)
Cov(x,x) = E[(x_i-bar{x})^2] = \bar{x^2}-\bar{x}^2 = Var(x)
onde \bar{x} é a media dos x, e E[x] também é a media dos x.
Matriz de covariância de 3 variáveis (dimensões) x, y e z
\left[ \begin{array}{rrr} Cov(x,x) & Cov(x,y) & Cov(x,z)\\ Cov(y,x) & Cov(y,y) & Cov(y,z) \\ Cov(z,x) & Cov(z,y) & Cov(z,z) \end{array} \right]
é uma matriz simétrica.
Matriz de covariância é a extensão da variância (de uma variável só) para múltiplas variáveis.
Variância \sigma^2 aparece na distribuição normal
N(x|\mu,\sigma) = \frac{1}{\sigma \sqrt{2\pi}} e^{\frac{1}{2} \frac{x^2-\mu^2}{\sigma^2}}
Numa distribuição normal de múltiplas variáveis, a matriz de covariância “entra no lugar” do \sigma^2 (a ser visto na próxima aula)