この項目では、テンソルについて説明しています。一般の項数が2の積については「二項演算 」をご覧ください。
多重線型代数学 における二項積 (にこうせき、英 : dyadic )あるいは二項テンソル (dyadic tensor ) は、二つのベクトルのある種の積として得られる二階テンソル である。二項積はしばしば二つのベクトルを併置することで表され、しかしその振舞いは行列 に対応する法則に従う。二項積に関する用語や概念は今日では比較的時代遅れのものであるが、連続体力学 や電磁気学 などの物理学において引き続き用例がある。
二項積の記法を確立した最初の人はジョサイア・ウィラード・ギブス で1884年の事である。
(本項では、大文字太字は二項積、小文字太字はベクトルを表すものとする。別な表記法として二項積およびベクトルのそれぞれに二重および一重の上付きまたは下付きのバーを付けるものがある。)
二項積テンソル 、単純二項積あるいは単に二項積 (dyad ; ダイアド) は二つの(一般には複素係数の)ベクトル に二項積を施した結果として得られる二次の二階テンソルである。一般に二次のテンソルを総称して二項積(dyadic ) と呼ぶ。
同じ積を表すのにいくつか用語法と記法が存在する:
二項積 (dyadic product )
ベクトル a , b の二項積はこれらを併置した ab で表される。
外積(直積 ) (outer product )
列ベクトル a , b の外積は a ⊗ b あるいは ab ⊤ で表される("⊤" は転置 である)。
テンソル積 (tensor product )
ベクトル a , b のテンソル積は a ⊗ b で表される。
本項で扱う文脈においてこれらは互いに同じものを定める同義語であるが、テンソル積 はより一般の対象に対してより抽象的な意味でも用いられることに注意すべきである。また「外積」(outer product ) は全く別の概念である交叉積 やより抽象的な楔積 に対しても用いられる。
これらの語法の等価性を見るために、三次元のユークリッド空間 を例に取ろう。i , j , k (あるいは e 1 , e 2 , e 3 )を基本ベクトル として、二つのベクトル
a
=
a
1
i
+
a
2
j
+
a
3
k
,
{\displaystyle \mathbf {a} =a_{1}\mathbf {i} +a_{2}\mathbf {j} +a_{3}\mathbf {k} ,}
b
=
b
1
i
+
b
2
j
+
b
3
k
{\displaystyle \mathbf {b} =b_{1}\mathbf {i} +b_{2}\mathbf {j} +b_{3}\mathbf {k} }
を考える。a , b の二項積は「九元数の形」(nonion form ) と呼ばれる和
a
b
=
a
1
b
1
i
i
+
a
1
b
2
i
j
+
a
1
b
3
i
k
+
a
2
b
1
j
i
+
a
2
b
2
j
j
+
a
2
b
3
j
k
+
a
3
b
1
k
i
+
a
3
b
2
k
j
+
a
3
b
3
k
k
{\displaystyle {\begin{aligned}\mathbf {ab} =&&&&a_{1}b_{1}&&\mathbf {ii} &&+&&a_{1}b_{2}&&\mathbf {ij} &&+&&a_{1}b_{3}&&\mathbf {ik} \\&&+&&a_{2}b_{1}&&\mathbf {ji} &&+&&a_{2}b_{2}&&\mathbf {jj} &&+&&a_{2}b_{3}&&\mathbf {jk} \\&&+&&a_{3}b_{1}&&\mathbf {ki} &&+&&a_{3}b_{2}&&\mathbf {kj} &&+&&a_{3}b_{3}&&\mathbf {kk} \end{aligned}}}
や、列ベクトルや行ベクトルの(ベクトルを成分とするような)拡張を考えることにより 3 × 3 行列
a
b
≡
(
a
1
b
1
a
1
b
2
a
1
b
3
a
2
b
1
a
2
b
2
a
2
b
3
a
3
b
1
a
3
b
2
a
3
b
3
)
=
(
a
1
a
2
a
3
)
(
b
1
b
2
b
3
)
≡
a
⊗
b
≡
a
b
⊤
{\displaystyle \mathbf {ab} \equiv {\begin{pmatrix}a_{1}b_{1}&a_{1}b_{2}&a_{1}b_{3}\\a_{2}b_{1}&a_{2}b_{2}&a_{2}b_{3}\\a_{3}b_{1}&a_{3}b_{2}&a_{3}b_{3}\end{pmatrix}}={\begin{pmatrix}a_{1}\\a_{2}\\a_{3}\end{pmatrix}}{\begin{pmatrix}b_{1}&b_{2}&b_{3}\end{pmatrix}}\equiv \mathbf {a} \otimes \mathbf {b} \equiv \mathbf {ab} ^{\top }}
で表現することができる(これが a , b のテンソル積の結果と同じであることに注意せよ)。
単純二項積 (dyad ) は上記の和の項 あるいは行列の成分を言う。つまり基底ベクトルの併置に係数をかけたものである。
基本ベクトル i , j , k が
i
=
e
1
=
(
1
0
0
)
,
j
=
e
2
=
(
0
1
0
)
,
k
=
e
3
=
(
0
0
1
)
{\displaystyle \mathbf {i} =\mathbf {e} _{1}={\begin{pmatrix}1\\0\\0\end{pmatrix}},\mathbf {j} =\mathbf {e} _{2}={\begin{pmatrix}0\\1\\0\end{pmatrix}},\mathbf {k} =\mathbf {e} _{3}={\begin{pmatrix}0\\0\\1\end{pmatrix}}}
で表される(転置をとる流儀もある)のと同様に、基本二項積テンソルは
i
i
=
(
1
0
0
0
0
0
0
0
0
)
,
…
j
i
=
(
0
0
0
1
0
0
0
0
0
)
,
…
j
k
=
(
0
0
0
0
0
1
0
0
0
)
,
…
{\displaystyle \mathbf {ii} ={\begin{pmatrix}1&0&0\\0&0&0\\0&0&0\end{pmatrix}},\ldots \mathbf {ji} ={\begin{pmatrix}0&0&0\\1&0&0\\0&0&0\end{pmatrix}},\ldots \mathbf {jk} ={\begin{pmatrix}0&0&0\\0&0&1\\0&0&0\end{pmatrix}},\ldots }
のような表現を持つ。例えば:
A
=
2
i
j
+
3
2
j
i
−
8
π
j
k
+
2
2
3
k
k
=
2
(
0
1
0
0
0
0
0
0
0
)
+
3
2
(
0
0
0
1
0
0
0
0
0
)
−
8
π
(
0
0
0
0
0
1
0
0
0
)
+
2
2
3
(
0
0
0
0
0
0
0
0
1
)
=
(
0
2
0
3
/
2
0
−
8
π
0
0
2
2
3
)
{\displaystyle {\begin{aligned}\mathbf {A} &=2\mathbf {ij} +{\frac {\sqrt {3}}{2}}\mathbf {ji} -8\pi \mathbf {jk} +{\frac {2{\sqrt {2}}}{3}}\mathbf {kk} \\&=2{\begin{pmatrix}0&1&0\\0&0&0\\0&0&0\end{pmatrix}}+{\frac {\sqrt {3}}{2}}{\begin{pmatrix}0&0&0\\1&0&0\\0&0&0\end{pmatrix}}-8\pi {\begin{pmatrix}0&0&0\\0&0&1\\0&0&0\end{pmatrix}}+{\frac {2{\sqrt {2}}}{3}}{\begin{pmatrix}0&0&0\\0&0&0\\0&0&1\end{pmatrix}}\\&={\begin{pmatrix}0&2&0\\{\sqrt {3}}/2&0&-8\pi \\0&0&{\frac {2{\sqrt {2}}}{3}}\end{pmatrix}}\end{aligned}}}
3-個より少ない数の単純二項積の和に簡約することのできない二項積は完全 (complete) であると言う。このとき、成分ベクトルは平面的でない (non-coplanar)[疑問点 – ノート ] see Chen (1983) 。
三次元ベクトルの二項積の分類
行列式
余因子行列
階数
零階
= 0
= 0
rank 0 : 零行列
一階 (線型)
= 0
= 0
rank 1 : 少なくとも一つの成分が 0 でなく、ひとつの単純二項積で書ける
二階 (平面的)
= 0
≠ 0: 一つの単純二項積で書ける
rank 2 : 少なくとも一つ 2 × 2 小行列式が 0 でない
三階 (完全)
≠ 0
≠ 0
rank 3 : 行列式が 0 でない
三次元の場合を容易に N -次元に拡張できる。標準基底 e i (i = 1, 2, 3, …, N ) で表した二つのベクトル
a
=
∑
i
=
1
N
a
i
e
i
=
a
1
e
1
+
a
2
e
2
+
⋯
a
N
e
N
{\displaystyle \mathbf {a} =\sum _{i=1}^{N}a_{i}\mathbf {e} _{i}=a_{1}\mathbf {e} _{1}+a_{2}\mathbf {e} _{2}+\cdots a_{N}\mathbf {e} _{N}}
b
=
∑
j
=
1
N
b
j
e
j
=
b
1
e
1
+
b
2
e
2
+
⋯
b
N
e
N
{\displaystyle \mathbf {b} =\sum _{j=1}^{N}b_{j}\mathbf {e} _{j}=b_{1}\mathbf {e} _{1}+b_{2}\mathbf {e} _{2}+\cdots b_{N}\mathbf {e} _{N}}
に対して、これらの二項積 (dyadic product) は代数的な和
A
=
a
b
=
∑
j
=
1
N
∑
i
=
1
N
a
i
b
j
e
i
e
j
.
{\displaystyle \mathbf {A} =\mathbf {ab} =\sum _{j=1}^{N}\sum _{i=1}^{N}a_{i}b_{j}{\mathbf {e} }_{i}\mathbf {e} _{j}.}
であり、行列の形に書けば
(
a
1
a
2
⋮
a
N
)
(
b
1
b
2
⋯
b
N
)
=
(
a
1
b
1
a
1
b
2
⋯
a
1
b
N
a
2
b
1
a
2
b
2
⋯
a
2
b
N
⋮
⋮
⋱
⋮
a
N
b
1
a
N
b
2
⋯
a
N
b
N
)
{\displaystyle {\begin{pmatrix}a_{1}\\a_{2}\\\vdots \\a_{N}\end{pmatrix}}{\begin{pmatrix}b_{1}&b_{2}&\cdots &b_{N}\end{pmatrix}}={\begin{pmatrix}a_{1}b_{1}&a_{1}b_{2}&\cdots &a_{1}b_{N}\\a_{2}b_{1}&a_{2}b_{2}&\cdots &a_{2}b_{N}\\\vdots &\vdots &\ddots &\vdots \\a_{N}b_{1}&a_{N}b_{2}&\cdots &a_{N}b_{N}\end{pmatrix}}}
となる。(二次テンソル冪 ∧2 (V ) の元という意味での)一般の二項積テンソル (dyadic) A は二項積多項式 (dyadic polynomial ) とも呼ばれ、複数のベクトル a i , b j の単純二項積の線型和
A
=
∑
i
a
i
b
i
=
a
1
b
1
+
a
2
b
2
+
a
3
b
3
+
⋯
{\displaystyle \mathbf {A} =\sum _{i}\mathbf {a} _{i}\mathbf {b} _{i}=\mathbf {a} _{1}\mathbf {b} _{1}+\mathbf {a} _{2}\mathbf {b} _{2}+\mathbf {a} _{3}\mathbf {b} _{3}+\dotsb }
である。次元と同じ数 N -個より少ない数の単純二項積の和に簡約することのできない二項積は完全 (complete) であると言う。
二項積の定義から直接に以下の等式が成り立つことが分かる[ 1]
スカラー倍 と両立する:
(
α
a
)
b
=
a
(
α
b
)
=
α
(
a
b
)
{\displaystyle (\alpha \mathbf {a} )\mathbf {b} =\mathbf {a} (\alpha \mathbf {b} )=\alpha (\mathbf {a} \mathbf {b} )}
.
(α は任意のスカラー)ベクトルの加法 に対して分配的 :
a
(
b
+
c
)
=
a
b
+
a
c
,
{\displaystyle \mathbf {a} (\mathbf {b} +\mathbf {c} )=\mathbf {ab} +\mathbf {ac} ,}
(
a
+
b
)
c
=
a
c
+
b
c
.
{\displaystyle (\mathbf {a} +\mathbf {b} )\mathbf {c} =\mathbf {ac} +\mathbf {bc} .}
ベクトル同士の演算に基づいて、(結果がまた二項積となるように)ベクトルと二項積の間に四種類の積を構成できる。
左乗法
右乗法
ドット積 (点乗積 )
c
⋅
(
a
b
)
=
(
c
⋅
a
)
b
{\displaystyle \mathbf {c} \cdot (\mathbf {a} \mathbf {b} )=(\mathbf {c} \cdot \mathbf {a} )\mathbf {b} }
(
a
b
)
⋅
c
=
a
(
b
⋅
c
)
{\displaystyle (\mathbf {a} \mathbf {b} )\cdot \mathbf {c} =\mathbf {a} (\mathbf {b} \cdot \mathbf {c} )}
クロス積 (交叉積 )
c
×
(
a
b
)
=
(
c
×
a
)
b
{\displaystyle \mathbf {c} \times (\mathbf {ab} )=(\mathbf {c} \times \mathbf {a} )\mathbf {b} }
(
a
b
)
×
c
=
a
(
b
×
c
)
{\displaystyle (\mathbf {ab} )\times \mathbf {c} =\mathbf {a} (\mathbf {b} \times \mathbf {c} )}
二項積同士の積がまた二項積となるように五種類の演算を以下のように定義する。a , b , c , d はベクトルとする。
ドット (Dot)
クロス (Cross)
ドット (Dot)
ドット積(点乗積) (Dot product)
(
a
b
)
⋅
(
c
d
)
=
a
(
b
⋅
c
)
d
=
(
b
⋅
c
)
a
d
{\displaystyle \left(\mathbf {a} \mathbf {b} \right)\cdot \left(\mathbf {c} \mathbf {d} \right)=\mathbf {a} \left(\mathbf {b} \cdot \mathbf {c} \right)\mathbf {d} =\left(\mathbf {b} \cdot \mathbf {c} \right)\mathbf {a} \mathbf {d} }
ダブルドット積(二重点乗積) (Double dot product)
a
b
:
c
d
=
(
a
⋅
d
)
(
b
⋅
c
)
{\displaystyle \mathbf {ab} \colon \mathbf {cd} =\left(\mathbf {a} \cdot \mathbf {d} \right)\left(\mathbf {b} \cdot \mathbf {c} \right)}
or
(
a
b
)
:
(
c
d
)
=
c
⋅
(
a
b
)
⋅
d
=
(
a
⋅
c
)
(
b
⋅
d
)
{\displaystyle \left(\mathbf {ab} \right):\left(\mathbf {cd} \right)=\mathbf {c} \cdot \left(\mathbf {ab} \right)\cdot \mathbf {d} =\left(\mathbf {a} \cdot \mathbf {c} \right)\left(\mathbf {b} \cdot \mathbf {d} \right)}
ドット-クロス積(点交叉積) (Dot–cross product)
(
a
b
)
⋅
×
(
c
d
)
=
(
a
⋅
c
)
(
b
×
d
)
{\displaystyle \left(\mathbf {ab} \right)\!\!\!{\begin{array}{c}_{\cdot }\\^{\times }\end{array}}\!\!\!\left(\mathbf {c} \mathbf {d} \right)=\left(\mathbf {a} \cdot \mathbf {c} \right)\left(\mathbf {b} \times \mathbf {d} \right)}
クロス (Cross)
クロス-ドット積(交叉点乗積) (Cross–dot product)
(
a
b
)
×
⋅
(
c
d
)
=
(
a
×
c
)
(
b
⋅
d
)
{\displaystyle \left(\mathbf {ab} \right)\!\!\!{\begin{array}{c}_{\times }\\^{\cdot }\end{array}}\!\!\!\left(\mathbf {cd} \right)=\left(\mathbf {a} \times \mathbf {c} \right)\left(\mathbf {b} \cdot \mathbf {d} \right)}
ダブルクロス積(二重点乗積、Double cross product)
(
a
b
)
×
×
(
c
d
)
=
(
a
×
c
)
(
b
×
d
)
{\displaystyle \left(\mathbf {ab} \right)\!\!\!{\begin{array}{c}_{\times }\\^{\times }\end{array}}\!\!\!\left(\mathbf {cd} \right)=\left(\mathbf {a} \times \mathbf {c} \right)\left(\mathbf {b} \times \mathbf {d} \right)}
一般二項積テンソル
A
=
∑
i
a
i
b
i
,
B
=
∑
i
c
i
d
i
{\displaystyle \mathbf {A} =\sum _{i}\mathbf {a} _{i}\mathbf {b} _{i},\quad \mathbf {B} =\sum _{i}\mathbf {c} _{i}\mathbf {d} _{i}}
に対しては:
ドット(Dot)
クロス(Cross)
ドット(Dot)
ドット積 (Dot product)
A
⋅
B
=
∑
j
∑
i
(
b
i
⋅
c
j
)
a
i
d
j
{\displaystyle \mathbf {A} \cdot \mathbf {B} =\sum _{j}\sum _{i}\left(\mathbf {b} _{i}\cdot \mathbf {c} _{j}\right)\mathbf {a} _{i}\mathbf {d} _{j}}
ダブル-ドット積 (Double dot product)
A
:
B
=
∑
j
∑
i
(
a
i
⋅
d
j
)
(
b
i
⋅
c
j
)
{\displaystyle \mathbf {A} \colon \mathbf {B} =\sum _{j}\sum _{i}\left(\mathbf {a} _{i}\cdot \mathbf {d} _{j}\right)\left(\mathbf {b} _{i}\cdot \mathbf {c} _{j}\right)}
or
A
:
B
=
∑
j
∑
i
(
a
i
⋅
c
j
)
(
b
i
⋅
d
j
)
{\displaystyle \mathbf {A} \colon \mathbf {B} =\sum _{j}\sum _{i}\left(\mathbf {a} _{i}\cdot \mathbf {c} _{j}\right)\left(\mathbf {b} _{i}\cdot \mathbf {d} _{j}\right)}
ドット-クロス積 (Dot–cross product)
A
⋅
×
B
=
∑
j
∑
i
(
a
i
⋅
c
j
)
(
b
i
×
d
j
)
{\displaystyle \mathbf {A} \!\!\!{\begin{array}{c}_{\cdot }\\^{\times }\end{array}}\!\!\!\mathbf {B} =\sum _{j}\sum _{i}\left(\mathbf {a} _{i}\cdot \mathbf {c} _{j}\right)\left(\mathbf {b} _{i}\times \mathbf {d} _{j}\right)}
クロス (Cross)
クロス-ドット積 (Cross–dot product)
A
×
⋅
B
=
∑
j
∑
i
(
a
i
×
c
j
)
(
b
i
⋅
d
j
)
{\displaystyle \mathbf {A} \!\!\!{\begin{array}{c}_{\times }\\^{\cdot }\end{array}}\!\!\!\mathbf {B} =\sum _{j}\sum _{i}\left(\mathbf {a} _{i}\times \mathbf {c} _{j}\right)\left(\mathbf {b} _{i}\cdot \mathbf {d} _{j}\right)}
ダブルクロス積 (Double cross product)
A
×
×
B
=
∑
i
,
j
(
a
i
×
c
j
)
(
b
i
×
d
j
)
{\displaystyle \mathbf {A} \!\!\!{\begin{array}{c}_{\times }\\^{\times }\end{array}}\!\!\!\mathbf {B} =\sum _{i,j}\left(\mathbf {a} _{i}\times \mathbf {c} _{j}\right)\left(\mathbf {b} _{i}\times \mathbf {d} _{j}\right)}
ダブルドット積(二重点乗積)の定義には二通りあり、何れの意味で用いる規約になっているのかは文脈に注意すべきである。この二項積同士の積に対応する行列の演算はなく、このような定義を持ち出すことに疑問は無かろう。
通常のドット積(点乗積)が可換 であるため、このダブルドット積(二重点乗積)もまたそうなる:
A
:
B
=
B
:
A
{\displaystyle \mathbf {A} \colon \!\mathbf {B} =\mathbf {B} \colon \!\mathbf {A} }
ダブルドット積(二重点乗積)は転置に関して特別の性質を持つ:
A
:
B
T
=
A
T
:
B
{\displaystyle \mathbf {A} \colon \!\mathbf {B} ^{\mathrm {T} }=\mathbf {A} ^{\mathrm {T} }\colon \!\mathbf {B} }
他には:
A
:
B
=
(
A
⋅
B
T
)
:
I
=
(
B
⋅
A
T
)
:
I
{\displaystyle \mathbf {A} \colon \mathbf {B} =\left(\mathbf {A} \cdot \mathbf {B} ^{\mathrm {T} }\right)\colon \mathbf {I} =\left(\mathbf {B} \cdot \mathbf {A} ^{\mathrm {T} }\right)\colon \mathbf {I} }
任意の二つのベクトル a , b の二項積に対して、そのダブルクロス積(二重交叉平方、自身との二重交叉積)は必ず 0 になる:
(
a
b
)
×
×
(
a
b
)
=
(
a
×
a
)
(
b
×
b
)
=
0
{\displaystyle \left(\mathbf {ab} \right)\!\!\!{\begin{array}{c}_{\times }\\^{\times }\end{array}}\!\!\!\left(\mathbf {ab} \right)=\left(\mathbf {a} \times \mathbf {a} \right)\left(\mathbf {b} \times \mathbf {b} \right)=0}
しかし一般の二項積テンソルに対して、そのダブルクロス積(二重交叉平方)は一般には 0 でない。例えばどの二つも一致しないベクトルから得られる一般二項積
A
=
∑
i
=
1
3
a
i
b
i
{\displaystyle \mathbf {A} =\sum _{i=1}^{3}\mathbf {a} _{i}\mathbf {b} _{i}}
に対して、積(平方)
A
×
×
A
=
2
[
(
a
1
×
a
2
)
(
b
1
×
b
2
)
+
(
a
2
×
a
3
)
(
b
2
×
b
3
)
+
(
a
3
×
a
1
)
(
b
3
×
b
1
)
]
{\displaystyle \mathbf {A} \!\!\!{\begin{array}{c}_{\times }\\^{\times }\end{array}}\!\!\!\mathbf {A} =2\left[\left(\mathbf {a} _{1}\times \mathbf {a} _{2}\right)\left(\mathbf {b} _{1}\times \mathbf {b} _{2}\right)+\left(\mathbf {a} _{2}\times \mathbf {a} _{3}\right)\left(\mathbf {b} _{2}\times \mathbf {b} _{3}\right)+\left(\mathbf {a} _{3}\times \mathbf {a} _{1}\right)\left(\mathbf {b} _{3}\times \mathbf {b} _{1}\right)\right]}
は 0 でない。
二項積を基本ベクトルで展開してベクトルの併置を点乗積に置き換えれば、蹟 (spur ) あるいは展開因子 (expansion factor ) が得られる。
|
A
|
=
A
11
i
⋅
i
+
A
12
i
⋅
j
+
A
13
i
⋅
k
+
A
21
j
⋅
i
+
A
22
j
⋅
j
+
A
23
j
⋅
k
+
A
31
k
⋅
i
+
A
32
k
⋅
j
+
A
33
k
⋅
k
=
A
11
+
A
22
+
A
33
.
{\displaystyle {\begin{aligned}|\mathbf {A} |&=\quad A_{11}\,\mathbf {i\cdot i} +A_{12}\,\mathbf {i\cdot j} +A_{13}\,\mathbf {i\cdot k} \\&\quad +A_{21}\,\mathbf {j\cdot i} +A_{22}\,\mathbf {j\cdot j} +A_{23}\,\mathbf {j\cdot k} \\&\quad +A_{31}\mathbf {k\cdot i} +A_{32}\mathbf {k\cdot j} +A_{33}\mathbf {k\cdot k} \\&=A_{11}+A_{22}+A_{33}.\end{aligned}}}
この二項積の縮約をアインシュタインの和の規約 に従って添字記法で書けば
|
A
|
=
A
i
i
.
{\displaystyle |\mathbf {A} |=A_{i}{}^{i}.}
また三次元の場合に限られるが、併置をクロス積(交叉積)で置き換えれば回転因子 (rotation factor ) が得られる:
⟨
A
⟩
=
A
11
i
×
i
+
A
12
i
×
j
+
A
31
i
×
k
+
A
21
j
×
i
+
A
22
j
×
j
+
A
23
j
×
k
+
A
31
k
×
i
+
A
32
k
×
j
+
A
33
k
×
k
=
A
12
k
−
A
31
j
−
A
21
k
+
A
23
i
+
A
31
j
−
A
32
i
=
(
A
23
−
A
32
)
i
+
(
A
31
−
A
13
)
j
+
(
A
12
−
A
21
)
k
.
{\displaystyle {\begin{aligned}\langle \mathbf {A} \rangle &=\quad A_{11}\,\mathbf {i} \times \mathbf {i} +A_{12}\,\mathbf {i} \times \mathbf {j} +A_{31}\,\mathbf {i} \times \mathbf {k} \\&\quad +A_{21}\,\mathbf {j} \times \mathbf {i} +A_{22}\,\mathbf {j} \times \mathbf {j} +A_{23}\,\mathbf {j} \times \mathbf {k} \\&\quad +A_{31}\mathbf {k} \times \mathbf {i} +A_{32}\mathbf {k} \times \mathbf {j} +A_{33}\mathbf {k} \times \mathbf {k} \\&=\quad A_{12}\mathbf {k} -A_{31}\mathbf {j} -A_{21}\mathbf {k} \\&\quad +A_{23}\,\mathbf {i} \,+A_{31}\mathbf {j} -A_{32}\mathbf {i} \\&=(A_{23}-A_{32})\mathbf {i} +(A_{31}-A_{13})\mathbf {j} +(A_{12}-A_{21})\mathbf {k} .\end{aligned}}}
A のこの縮約をレヴィ–チヴィタテンソル で書けば:
⟨
A
⟩
=
ϵ
i
j
k
A
j
k
.
{\displaystyle \langle \mathbf {A} \rangle ={\epsilon _{i}}^{jk}A_{jk}.}
任意のベクトル a に対して以下を満たす二項積 I が存在する:
I
⋅
a
=
a
⋅
I
=
a
.
{\displaystyle \mathbf {I} \cdot \mathbf {a} =\mathbf {a} \cdot \mathbf {I} =\mathbf {a} .}
三次元の場合に、基底ベクトル a , b , c およびその逆ベクトル ˆ a , ˆ b , ˆ c を用いれば単位二項積は
I
=
a
a
^
+
b
b
^
+
c
c
^
{\displaystyle \mathbf {I} =\mathbf {a} {\hat {\mathbf {a} }}+\mathbf {b} {\hat {\mathbf {b} }}+\mathbf {c} {\hat {\mathbf {c} }}}
と書ける。標準基底(基本ベクトル)で書けば
I
=
i
i
+
j
j
+
k
k
{\displaystyle \mathbf {I} =\mathbf {ii} +\mathbf {jj} +\mathbf {kk} }
である。対応する行列
I
=
(
1
0
0
0
1
0
0
0
1
)
{\displaystyle \mathbf {I} ={\begin{pmatrix}1&0&0\\0&1&0\\0&0&1\\\end{pmatrix}}}
は単位行列 になる。
これは(併置記法が何を意味するのかという論理的な文脈で)より注意深く基礎付けることができる。有限次元ベクトル空間 V と V 上の二項積テンソルは、V とその双対空間 に関するテンソル積の基本テンソルである。
V とその双対空間 V ∗ とのテンソル積が V から V への線型写像 の空間に線型同型 であることに基づけば、二項積 vf は w ∈ V を f (w )v へ写す線型写像と看做すことができる。V が n -次元ユークリッド空間のときは、内積 を用いて V はその双対空間と同一視できるから、二項積はユークリッド空間の二つのベクトルの基本テンソル積になる。
この意味で、基本二項積 ij は a 1 i + a 2 j + a 3 k を a 2 i に写す三次元空間からそれ自身への写像であり、同様に jj は同じ和を a 2 j に写す。そうすると、ii + jj + kk は恒等写像(単位元)であるということにはっきりと意味ができて、これは a 1 i + a 2 j + a 3 k をそれ自身に写す。
単位二項積の性質
(
a
×
I
)
⋅
(
b
×
I
)
=
a
b
−
(
a
⋅
b
)
I
{\displaystyle \left(\mathbf {a} \times \mathbf {I} \right)\cdot \left(\mathbf {b} \times \mathbf {I} \right)=\mathbf {ab} -\left(\mathbf {a} \cdot \mathbf {b} \right)\mathbf {I} }
I
×
⋅
(
a
b
)
=
b
×
a
{\displaystyle \mathbf {I} \!\!{\begin{array}{c}_{\times }\\^{\cdot }\end{array}}\!\!\!\left(\mathbf {ab} \right)=\mathbf {b} \times \mathbf {a} }
I
×
×
A
=
(
A
:
I
)
I
−
A
T
{\displaystyle \mathbf {I} \!\!{\begin{array}{c}_{\times }\\^{\times }\end{array}}\!\!\mathbf {A} =(\mathbf {A} \!\!{\begin{array}{c}\colon \!\end{array}}\!\!\mathbf {I} )\mathbf {I} -\mathbf {A} ^{\mathrm {T} }}
I
:
(
a
b
)
=
(
I
⋅
a
)
⋅
b
=
a
⋅
b
=
t
r
(
a
b
)
{\displaystyle \mathbf {I} \;\colon \left(\mathbf {ab} \right)=\left(\mathbf {I} \cdot \mathbf {a} \right)\cdot \mathbf {b} =\mathbf {a} \cdot \mathbf {b} =\mathrm {tr} \left(\mathbf {ab} \right)}
ここで、 "tr " は対角和 (蹟、trace)を表す。
回転二項積 (Rotation dyadic)[ 編集 ]
二次元の任意のベクトル a に対して単位二項積への左交叉積:
a
×
I
{\displaystyle \mathbf {a} \times \mathbf {I} }
は a の周りの 90° 反時計回りの回転を与える二項積である。あるいは、一般二項積テンソル
J
=
j
i
−
i
j
=
(
0
−
1
1
0
)
{\displaystyle \mathbf {J} =\mathbf {ji-ij} ={\begin{pmatrix}0&-1\\1&0\end{pmatrix}}}
も二次元の 90° 反時計回りの回転作用素 (英語版 ) になる。これはベクトルに左点乗積で回転を表す:
(
j
i
−
i
j
)
⋅
(
x
i
+
y
j
)
=
x
j
i
⋅
i
−
x
i
j
⋅
i
+
y
j
i
⋅
j
−
y
i
j
⋅
j
=
−
y
i
+
x
j
,
{\displaystyle (\mathbf {ji} -\mathbf {ij} )\cdot (x\mathbf {i} +y\mathbf {j} )=x\mathbf {ji} \cdot \mathbf {i} -x\mathbf {ij} \cdot \mathbf {i} +y\mathbf {ji} \cdot \mathbf {j} -y\mathbf {ij} \cdot \mathbf {j} =-y\mathbf {i} +x\mathbf {j} ,}
行列として書けば
(
0
−
1
1
0
)
(
x
y
)
=
(
−
y
x
)
.
{\displaystyle {\begin{pmatrix}0&-1\\1&0\end{pmatrix}}{\begin{pmatrix}x\\y\end{pmatrix}}={\begin{pmatrix}-y\\x\end{pmatrix}}.}
一般に、反時計回りの角 θ の二次元回転二項積は
I
cos
θ
+
J
sin
θ
=
(
cos
θ
−
sin
θ
sin
θ
cos
θ
)
{\displaystyle \mathbf {I} \cos \theta +\mathbf {J} \sin \theta ={\begin{pmatrix}\cos \theta &-\sin \theta \\\sin \theta &\;\cos \theta \end{pmatrix}}}
で与えられる。ただし、I , J は上で与えたものとする。
幾らかの文献において、二項積 (dyadic ) を一般化して三項積 (triadic ), 四項積 (tetradic ), …, 多項積 (polyadic ) などを同様の方法で定めるものがある[ 2] 。
^ Spencer (1992), page 19.
^ For example, I. V. Lindell and A. P. Kiselev (2001). “POLYADIC METHODS IN ELASTODYNAMICS”. Progress In Electromagnetics Research, PIER 31 : 113–154. [1]
P. Mitiguy (2009年). “Vectors and dyadics” . Stanford , USA. http://www.stanford.edu/class/me331b/documents/VectorBasisIndependent.pdf Chapter 2
Spiegel, M.R.; Lipschutz, S.; Spellman, D. (2009). Vector analysis, Schaum's outlines . McGraw Hill. ISBN 978-0-07-161545-7
A.J.M. Spencer (1992). Continuum Mechanics . Dover Publications. ISBN 0-486-43594-6 .
Morse, Philip M.; Feshbach, Herman (1953), “§1.6: Dyadics and other vector operators”, Methods of theoretical physics, Volume 1 , New York: McGraw-Hill , pp. 54–92, ISBN 978-0-07-043316-8 , MR 0059774 .
Ismo V. Lindell (1996). Methods for Electromagnetic Field Analysis . Wiley-Blackwell. ISBN 978-0-7803-6039-6 .
Hollis C. Chen (1983). Theory of Electromagnetic Wave - A Coordinate-free approach . McGraw Hill. ISBN 978-0-07-010688-8 .