23 settembre 2017

Inversi destri e sinistri

Quando si segue (o si tiene) un corso di Algebra Lineare, si arriva ad un certo punto all'importante concetto di matrice invertibile. La definizione data in genere è che una matrice quadrata $A$ è invertibile se esiste una matrice $B$ tale che $AB = BA =I$. Dopodiché, si dice che è sufficiente in realtà testare una sola delle due condizioni, dato che l'altra è conseguenza di essa, ma la giustificazione di quest'ultimo fatto viene omessa in molti libri di testo.

Il motivo è che in effetti non è possibile dedurre formalmente dall'eguaglianza $AB=I$  l'eguaglianza $BA=I$, dato che esistono controesempi in opportune algebre di dimensione infinita (vedi sotto). Dunque occorre utilizzare qualcosa di specifico della teoria delle matrici (come, ad esempio, il determinante).

In generale, questa situazione mostra che ha senso chiedersi in un contesto più astratto quando esistano inverso destro e sinistro di un elemento in un anello, e se essi coincidono.
Supponiamo dunque di essere in un anello con unità $R$, e sia $x$ un suo elemento non nullo. Diciamo che $a$ è un inverso sinistro di $x$ se $ax =1$, e che $b$ è un inverso destro di $x$ se $xb=1$. Un inverso bilatero (o semplicemente inverso) di $x$ è un elemento tale che è sia inverso destro che sinistro, ossia tale che $ax=xa=1$. Il seguente semplice fatto è ben noto.
Proposizione 1. (1) Sia $R$ un dominio d'integrità. Allora inverso destro e sinistro di $x$, se esistono, sono unici.
(2) In qualsiasi anello unitario $R$, se inverso destro e sinistro esistono entrambi allora essi coincidono e pertanto esiste un inverso di $x$, che è necessariamente unico.
Dimostrazione. (1) Se $a$ e $a'$ sono entrambi inversi sinistri di $x$, allora $ax=a'x=1$, quindi $(a-a')x=0$, e siccome $x$ è non nullo e $R$ è un dominio segue $a=a'$. La dimostrazione per l'inverso destro è analoga.
(2) Supponiamo che $ax = xb=1$. Allora
$$a= a \cdot 1 = a(xb) = (ax)b = 1 \cdot b = b. $$
$\square$


Come conseguenza immediata, abbiamo il seguente
Corollario. Ogni dominio d'integrità finito $R$ è un corpo (e quindi un campo, per il Teorema di Wedderburn).
Dimostrazione. Scegliamo un qualsiasi elemento non nullo $x \in R$, e consideriamo la moltiplicazione a destra $a \mapsto ax$. Essa è un endomorfismo di $R$  iniettivo (dato che $R$ è un dominio), dunque anche suriettivo poiché R è finito. Segue che $1$ è nell'immagine della moltiplicazione a destra per $x$, in altre parole l'elemento $x$ possiede un inverso sinistro. Usando la moltiplicazione a sinistra, si mostra allo stesso modo che a ha un inverso destro. Allora dalla Proposizione 1 segue che  $x$ è invertibile, dunque $R$  è un corpo.
$\square$

Nel caso di algebre finito-dimensionali su un campo (o, più in generale, di anelli left o right-artinian, non necessariamente commutativi), l'esistenza dell'inverso destro implica quella dell'inverso sinistro e viceversa. Ciò include ovviamente come caso particolare quello delle matrici su un campo.
Proposizione 2. Sia $R$ una $\mathbb{K}$-algebra finito-dimensionale, e sia $x$ un elemento non nullo di $R$. Se $x$ possiede un inverso sinistro, allora esso è anche inverso destro (e dunque $x$ è invertibile).
Dimostrazione. Supponiamo $ax=1$, e consideriamo i sottospazi $(x^k)R$. Essi formano una catena discendente $$R \supseteq xR \supseteq \ldots \supseteq (x^{k-1})R \supseteq (x^k)R \supseteq (x^{k+1})R \supseteq \ldots,$$ quindi, siccome $R$ è finito dimensionale, tale catena diventa stazionaria. Allora esiste $k$ tale che $(x^k)R = (x^{k+1})R$, da cui in particolare esiste b tale che $x^k = x^{k+1}b$. Moltiplicando a sinistra per $a^k$ otteniamo $1 = xb$, dunque $x$ ha un inverso destro, che coincide con quello sinistro per la Proposizione 1.
$\square$

Concludiamo con un esempio di anello contenente un elemento che ha inverso sinistro ma non inverso destro. Si consideri l'algebra infinito-dimensionale delle successioni reali $(a_0,  \,a_1, \,a_2, \ldots)$ e consideriamo l'operatore di shift
$$X \colon  (a_0, \, a_1, \,a_2, \ldots) \mapsto (0,\, a_0, a_1, a_2, \ldots).$$ Allora l'operatore lineare $A$ dato da $A(a_0, \, a_1, \, a_2, \ldots) = (a_1,  \, a_2, \,  a_3, \ldots)$ verifica $AX = \mathrm{Id}$. Tuttavia $XA$ è diverso dall'identità, infatti
\begin{equation*}
\begin{split}
(AX)(a_0,  \,a_1, \,a_2, \ldots) & = A(0, \,a_0,  \,a_1, \,a_2, \ldots)= (a_0,  \,a_1, \,a_2, \ldots) \\
(XA)(a_0,  \, a_1, \,a_2, \ldots) & = X(a_1, \,a_2, \, a_3, \, \ldots) = (0,\, a_1,\, a_2, \,a_3, \ldots).
\end{split}
\end{equation*} Ciò mostra che $X$ non ha nessun inverso destro, dato che se esso esistesse dovrebbe coincidere con l'inverso sinistro $A$ per quanto visto sopra.

Il lettore che volesse approfondire l'argomento di questo post può guardare l'interessante post su MathStackExchange "If $AB=I$ then $BA=I$".

Nessun commento:

Posta un commento