テレビジョンシステム
現代の我々に身近な、映像を見るための機械といえば、テレビであろう。
この言葉は『テレビジョン(television)』の略称である。
そしてテレビジョンという言葉は、動いている画像、つまりは『映像(video)』を電気信号に変換し、その信号を「電波(radio waves)」にのせ、離れた場所に送って、そちらで再び映像に変換して再現するシステムのこと。
このシステムは、動画を撮影して電気信号に変換する「カメラ(camera)」、映像信号を電波に乗せて送る「放送(broadcasting)」、放送を受け取り動画として再現する「受信機(receiver)」から成り立つ。
現在テレビに限らず、多くの電気機械が「ブラックボックス化」しているとされる。
「ブラックボックス(black box)」とは、内部構造が不明なもの。
あるいは、それを問題にしなくとも、 外部からマニュアル通りの操作をすることで、実用的に利用できる仕掛けのこと。
とにかくそういうわけで、我々にとってはとても身近なはずのテレビも、平均的な理解度的には、案外身近でもないとも言われる。
アナログ放送とデジタル放送の違いは何か
よく「アナログ放送」、「デジタル放送」などと言うが、違いは何か。
連続量、離散量
アナログは「連続した量(連続量)」。
デジタルは「不連続な量(離散量)」とは、よく使われる定義である。
常に動く針が指した領域で時間を示すアナログ時計。
それと、きっちりとした時間、分、秒などを数字で表示するデジタル時計を比べると、おそらくわかりやすい。
動き続ける針が指し示した領域(エリア)というのはちょっと曖昧であるが、はっきりと示された数字というのは(その瞬間においては)決定的なものである。
実際に言うなら、その場に人が何人いるかということは明確な数字として表すことができるが、 ある距離がどのくらいの長さかというのは、メートルとかヤードといった単位を定義しない限り、はっきりとした数字では表せられない。
距離は単位を定義しても、はっきり1メートルとか2メートルでなく、細かく調べると、1.456235……とか、明確に理解しようがないような数が現れたりする。
これは距離が、明確な境目のない連続した量だからであり、各種の量に数字を当てはめようとする場合に、無限の数が必要になってしまうことを意味する。
そういうのがアナログ量である。
一方で、その場に3人の人の数は、どれだけ細く調べようと3のままである。
これは物の数というのが、明確な境目のある不連続な(離散した)量だからである。
そういうのがデジタル量というわけだ。
時間は本来、離散的だとされていて、常に動く針がある瞬間に指しているエリアを基準に、その瞬間の時間を定義するというのは、なかなか賢い試みと思われる。
そしてデジタル時計というのは、本来は不連続な時間に大量の点を打って、区分けし、その点ごとを明確な時間の数として表示しているというような装置ということになる。
大まかなメリット、デメリット
アナログ放送は、電波をそのまま、アナログな波として送信する。
「電波」電磁波との違い。なぜ波長が長く、周波数が低いか 「電磁気学」最初の場の理論。電気と磁気の関係
電波は、送る距離が長いと、品質が劣化していくし、ノイズの影響も受けやすい。
しかし、伝送手順が手短のためにチャンネルの切り替えがスムーズで、劣化はするが送受信そのものは途切れにくい。
デジタル放送は、映像の情報を、数字のデータ(デジタル信号)に変換して送る方式。
こちらは、デジタル情報というのがコンピューターなどで扱いやすいため、ノイズなどのエラーを検出し排除もしやすい。
デジタルデータは、圧縮機能も使いやすく、伝送量の節約も可能。
さらにスクランブル(暗号化)して、コピー対策などもしやすい。
しかしエラーなどがシステムの許容範囲を超えると、受信は完全に途切れてしまう。
「コンピューターの構成の基礎知識」1と0の極限を目指す機械
アナログ放送が主流だった時代は、高い建物などで電波が反射されたための重なりで、映像が何重にも映ってしまう「ゴースト」と呼ばれる現象が厄介な問題とされていた。
デジタルの伝送方式では、この問題は基本、発生しないとされている。
受信時のミスで重複したデータを排除するプログラムを設定できるためである。
動画はどのような原理か
走査、スキャン。静止画の一枚一枚を線にする
そもそも映像とはどのようなものなのであろうか。
わずかな時間の間での連続する静止画、『フレーム(frame)』を撮影し、それを連続して再生する。
切り替わるのが十分に早ければ、実際には静止画の連続であっても、我々の目にはなめらかな動画として見える。
テレビの場合、そうして得られた動画としての連続静止画を、どこか別の場所に、電波として送らないと成り立たない。
つまり実際に送るのは、動画というよりもたくさんの静止画であり、それらの1つ1つを電気信号に変換する必要がある。
静止画は複数の線に分解され、 その線をひとつながりにしたものが情報として伝送される。
このような、分割した線を繋げて送る方法は、『走査(scan。スキャン)』と呼ばれ、分割された一本ずつの線を『走査線(scanning line)』という。
走査を行うのは、情報量が大きい画像を、電波にのせれるレベルの信号量に落とすため。
走査された静止画情報を受け取った受信機は、その線を再び元の通りに並べ、画像へと戻すわけである。
ちなみに、点のスキャン、線のスキャンを順次行って画像を取得する技術は、「ラスタースキャン(Raster scan)」とも呼ばれる。
ラスターというのは、農業などで、地面を引っ掻いて平らにしたりするための道具である「熊手」を意味するラテン語らしい。
走査点の動き。水平と垂直の期間
走査は、基本的には左から右へ水平に、線上の「走査点(scanning spot)」と呼ばれる各点を、電気信号として取り出していく。
走査点は、一定スピードで左から右へ移動していくわけだから、電気信号を取り出した時間(タイミング)が、その線上の位置。
そして、実際に取り出した信号の大きさが、明るさの情報の基準となる。
走査は水平といっても、実際にはほんの僅かな垂直方向への走査も同時になされていて、左から右へ走査して、それから左端に戻ってくる間で、次の出発点はまた少し下がる。
だから走査線は、 実際には完全な水平でなく、少しだけ、右斜めに下向きの線となる
そしてある画像の最後の走査線を描いた後、画像の右下の位置にきている走査点は、また左上の初期位置に戻り、次の画像の走査を開始する。
1つの線の走査を終えて、走査点が左端に戻ってくる期間は「水平帰線期間(Horizontal blanking interval)」。
画像全体の走査を終えて、走査点が左上に戻ってくる期間は「垂直帰線期間(Vertical blanking interval)」と呼ばれる。
帰線期間の信号情報は、映像にいらないので、普通、受信機はこの期間の表示をしないようにコントロールされている。
時間分解能。フリッカ
測定器などにおいて、観察する対象の量や変化を捉えられる最短の時間間隔を「時間分解能(Temporal resolution)」という。
例えばある音の測定器の時間分解能が1秒だとする(実際にそうだったら、控えめに言ってかなり精度が悪いが)
その測定器は、0.5秒ごとに途切れる音の連射を、繋がった長い音として認識してしまうわけである。
人間は物質が放射、あるいは反射した光を、その目で捉えることで、視覚情報を認識する。
「視覚システム」脳の機能が生成する仕組みの謎。意識はどの段階なのか
そして、人間が光の点滅を認識する時間分解能は0.05秒~0.1秒くらいとされている。
つまり、なめらかな動画として連続画像を見せるためには、それ以下の時間間隔での切り替えが必要。
さらに、考えられる時間分解能よりも早い速度であっても、それが少し程度なら、表示する画像パターンやモニターの特性によって、画像がちらついてしまうこともある。
そのようなちらつき現象は「フリッカ(flicker)」と呼ばれている。
インターレース。プログレッシブ
しかし、素早い切り替えはともかくとして、1秒間に見せる画像の量が多くなるのは、そのまま転送データの増加につながってしまい、技術的な制約も大きくなる。
そこで、水平走査のラインを分けた場合における、奇数ラインのみから構成される静止画と、偶数ラインのみから構成される静止画を、交互に伝送データとして利用する荒業が開発された。
それは『インターレース走査(interlaced scan。飛び越し走査)』と呼ばれる方式である。
受信機側が奇数ラインのみと偶数ラインのみを交互に表示させることで、我々の目には、「残像効果(Afterimage effect)」による補完で、ちゃんとした画像としてしっかり認識される。
残像効果とは、少し前の画像を、それが見えなくなった後もしばらくの間は認識し続けてしまうという、我々の視覚システムの機能の1つ。
インターレースでは、走査時間も短縮しやすい。
それに、転送データも、全ラインを走査した場合と同じ量で、画像の数を倍にできる。
実際のアナログテレビにおいては、インターレース走査が主流で、1秒に30コマ分の画像を用意するわけだが、それにより実質1秒に60コマ分用意できていたわけである。
そして、インターレースに対し、水平走査のラインを奇数と偶数で分けないで、フレーム単位に全画面を表示する方式は、『プレグレッシブ走査(progressive scan)』と呼ばれる。
デジタルテレビでは、インターレース式かプログレッシブ式か、設定で変えられたりできる場合も多い。
カメラはどのように動画を撮っているか
光の電気信号への変換
まず、 工学的製品において、その機能性にとって、重要な役割を担う構成要素を「素子(element)」という。
電化製品の代表的な素子としては、例えば電気を蓄えたり放出したりする「コンデンサー」や、信号を増幅させたりする「トランジスタ」などが代表的。
「電気コンポーネントの動作」直流と交流の使い分け、各デバイスの役割 「電気回路、電子回路、半導体の基礎知識」電子機器の脈
そして言うまでもないことであろうが、動画はテレビカメラ(ビデオカメラ)で撮られる。
テレビカメラは、撮影した画像の各部分の光の強弱を、平面の受光素子を用いて、電気信号に変換する。
この過程を行うのが『撮像素子(Image sensor。イメージセンサー)』というものである。
「カメラの仕組み」歴史。進化。種類。初心者の為の基礎知識
真空管から固体撮像素子へ
撮像素子として古くは「ビジコン」や「プランビコン」などの「撮像管(Imaging tube)」がよくつかわれていたが、現在は、「CCD」や「CMOS」などの『固体撮像素子(solid state image sensor)』が主流となっているという。
撮像管は、ある種の「電子管(electron tube)」。
電子管とは、意図的に電場内の電子を動かし(つまり電気をコントロールして)、特定動作に利用するための素子。
多くの電子管は、真空の管構造なので、「真空管(vacuum tube)」という名前でもよく知られている。
ビジコンは、光電変換部に光導電材料(光を当てると電気伝導率が高まるような材料)を用いた撮像管。
もともとはRCA(Radio Corporation of America)とかいう会社の撮像管の商品名だったようである。
プランビコンも、光導電現象を利用した撮像管だが、ビジコンよりもかなり性能が上だったらしい。
他にもNHK放送技術研究所と日立製作所が開発した、安価なわりに高性能だったらしい「サチコン」など、いろいろな撮像管があったという。
輝度信号、同期信号
光導電素子は、 光により抵抗値が変化するため、受光する画像の明暗パターンを、各点ごとの抵抗値パターンに対応させれる。
つまりは、光がよく当たっているところは電気抵抗が小さくなっているので、電流がたくさん流れる。
光があまり当たっていないところでは電気抵抗が大きいため、電流が少ししか流れない。
そしてそれらの抵抗値の変化具合を、電子ビームのスキャン(走査)によって、電気信号として取り出すのである。
カメラのイメージセンサーが出力する、映像の明るさを表す信号は、「輝度信号(luminance signal)」と呼ばれる。
そして輝度信号には、「同期信号(Sync signal)」というのが付加されていて、それは受信機側が元の画像を再現する際の、信号の読み出しタイミングとして利用される。
イメージセンサー。MOS構造の集積回路
(たいてい二酸化ケイ素らしい)酸化皮膜の絶縁体を、金属と半導体で挟んでいる構造を、「MOS構造(Metal-Oxide-Semiconductor structure)」という。
また、微細な電子回路などを詰めこんだ「集積回路(integrated circuit。IC。LSI。Large Scale Integration)」は、今やデジタル機器における最重要素子と言えるだろうが、MOS構造のものはシンプルがゆえに集積度が高くて、消費電力も抑えやすいため、現在の主流とされている。
固体撮像素子というのは、通常、MOS構造の半導体集積回路を用いたイメージセンサーのこと。
pn接合、方向バイアス
構造的に、電子(マイナス電荷)を不足させている「p半導体」と、 あぶれて自由な電子(マイナス電荷)を有する「n半導体」を、接合したら、実質マイナス電荷とプラス電荷なわけなので、互いに引き合う。
しかし、「pn接合」と呼ばれる、接合の境界付近では、空乏層という、実質、絶縁状態な領域も生じる。
pn接合半導体のp側にプラス、n側にマイナスの電極を繋ぐことを「順方向バイアス(Forward bias)」。
ぎゃくにpにマイナス、nにプラスを繋ぐことを「逆方向バイアス(reverse bias)」という。
順方向バイアス時に電圧をかけたら、半導体の内部を電流が流れる。
つまりは、電子は次々にn型領域からp型領域に流れ込んでいくが、そのような、同一方向のみに電流を流す性質は、「整流(rectification)」と呼ばれる。
順方向バイアス時に電圧をかけると、電流はほぼ流れず、そのために電荷量が増幅する。
そのpn接合の逆バイアス時の、電荷蓄積の性質を利用した、「光検出器(Photodetector)」や「受光素子(Light receiving element)」とも呼ばれる、光起電力(光により発生する起電力)を有する素子を『フォトダイオード(Photodiode)』という。
CCD。CMOS
CCD(Charge-Coupled Device。電荷結合素子)イメージセンサーの場合。
配列されたフォトダイオードが、画像の各部分から受けた光を変換した電子は、センサー内の素子から素子へ、バケツリレー式に転送され、出力部から順次取り出されていく。
一方でCMOS(Complementary Metal Oxide Semiconductor。相補性金属酸化膜半導体)センサーは、同じように光を電気信号に変える半導体センサーであるが、こちらは受光素子1つずつに、アンプ(信号増幅器)がついている。
受光素子は光を受けると電荷に変換し、さらに変換器で電気信号に変換、アンプで増幅し、出力信号になる。
CCDは、出力に別の電源が必要となるが、CMOSは、1つだけで出力まで駆動するから、基本的に低コストとされる。
CMOSセンサーは、受光素子ごとにアンプがついてるが、大量のそれらの性能を完全に統一するのはかなり難しく、そのせいでノイズが発生しやすいという欠点がある。
そこで、各受光素子のノイズのばらつきを記録しておき、得られたデータから、ノイズ分を差し引くという方法が実用化されている。
電波をどう使うか
電波というのは、波長が長い電磁波である。
それを普通に波として扱った場合の、一定時間内のパターン周期、いわゆる「周波数(frequency)」が3テラヘルツ(3000000000000ヘルツ)以下という定義もある。
映像信号は、各放送局に割り当てられた、『搬送波(carrier wave)』 という、電波に乗せて送信される。
そしてその電波を、各家庭の屋根の上などに設置されているアンテナが受信。
各放送局の番組ごとの映像信号は、「チューナー(tuner)」という装置により、選択的に抽出される。
そして、同期信号を基準に、元の画像を再生する。
周波数による分類
電波には、周波数によって以下のような分類がある。
300ギガ~30ギガヘルツの周波数の「ミリ波(Extremely High Frequency。EHF)」。
30ギガ~3ギガヘルツの周波数の「センチ波(Super High Frequency。SHF)」。
3ギガ~300メガの周波数の「極超短波(Ultra High Frequency。UHF)」。
300メガ~30メガの周波数の「超短波(Very High Frequency。VHF)」。
30メガ~3メガの周波数の「短波(High Frequency。HF)」。
3メガ~300キロの周波数の「中波(Medium Frequency。MF)」。
300キロ~30キロの周波数の「長波(Low Frequency。LF)」。
30キロ~3キロの周波数の「超長波(Very Low Frequency。VLF)」。
電波の種類と、その特性の違いなどを考慮し、それぞれの周波数ごとの用途はある程度決まっている。
テレビ用の電波として主に利用されるのは、VHFの90メガ~222メガヘルツと、UHFの470メガ~770メガヘルツ。
そして衛星放送には、SHFの電波が使われている。
「アンテナの基礎知識」種類ごとの用途。個々の特徴
多重、変調。AM、FM。電波に情報を乗せる技術
電波に信号を乗せることを「多重(multiplex)」または「変調(modulation)」。
実際に映像や音声などの信号を変調した搬送波は、『変調電波(Modulated radiowave)』という。
実際には乗せるというよりも、元はシンプルな波である搬送波に、それに対応した変化をつけている。
運送波の振幅や周波数を、変調信号によって変化させるわけである。
ラジオ放送には「AM」と「FM」という方式があるが、これらは、変調に関するもの。
つまり、「振幅変調(Amplitude Modulation)」、「周波数変調(Frequency Modulation)」である。
アナログテレビの場合は、映像信号をAMで、音声信号をFMで多重している。
6MHzのチャンネル領域
テレビ放送用の電波の中で、さらに6メガヘルツ分ごとの周波数帯が、 各放送局のチャンネルに対応している。
例えばCh1~3は、VHF帯の90メガ~108メガヘルツの領域を分け合っている。
また、映像と音声は同じチャンネルのものであっても、それぞれ別々の搬送波で送れるようになっているという。
映像信号の搬送波は、チャンネル周波数内の下限1.25メガヘルツに納められている。
音声信号は上限0.25メガヘルツである。
つまりその間には4.5メガヘルツの空きがあるわけだが、 これは4.2メガヘルツまでの周波数幅を持つ映像信号との干渉が少なくするための配慮である。
映像信号はなぜ4.2MHzまでか
これは映像を表現するのにどれくらいの周波数がいるかということでもある。
画像が白とか黒とかただ一色の場合、輝度信号が変化する必要はない。
つまり必要な周波数は0である。
一般的なアナログテレビの走査線数は525本とされている。
インターレース方式の場合は、262.5本である(走査のスタート位置を上手く調整している)。
1秒間に表示されるフレームは30(インターレースの場合は60)だから、1秒の走査線数は15750本となる。
ヘルツという単位は1秒間での振動回数。
走査は順次水平に行われていくわけだから、画面に垂直の変化が1度あった場合、走査の周波数は変化の回数分、つまり15.75キロヘルツ(15750ヘルツ)必要となる。
ただの変化の数が増えるために必要な周波数はこの15.75キロヘルツの正数倍である。
一方で水平方向の変化が1度だけある画面の場合、 水平走査的には1回の変化があるだけなので、1コマずつで1ヘルツずつ、つまり1秒では、30か60ヘルツが必要になる。
インターレースでは60である。
そして水平方向の変化が増えても、必要な周波数は60ヘルツの整数倍。
それと、走査表現的に最も細いテレビの画像パターンは、極限に細かい市松模様ということになる。
また、画面を構成する最小のブロック数、つまりは「画素」の数は、 縦は当然、水平走査の回数である525である。
横の画素数は通常、基本的な画面の横縦比とされる4:3では、700(525×4/3)となる。
つまり通常のアナログテレビの画素数は、700×525(367500)。
1秒間では367500×30(11025000)。
インターレースの場合、1秒間のフレーム数は60だが、結局半分ずつの部分しか表示していないため、画素数は30フレームの場合と変わらない。
縞模様1つが変化とすると、その変化回数は画素数の半分ということになるから5512500。
つまり、これがテレビで扱える映像信号の最高周波数で、約5.5メガヘルツ(5500000ヘルツ)ということになる。
ただ実際には、走査の帰線期間の調整などにより、画面で有効に表示される部分は、走査分の内、水平方向83%、垂直方向93%程度とされている。
さらに、信号処理や、表示装置の周波数特性などを考慮したら、映像信号の周波数の上限値は、結局4~4.2メガヘルツ程度くらいまでと考えられているわけである。
中間周波数。チャンネルのフィルター
チャンネル操作は、搬送波から送られてくるテレビ電波の中から、特定のチャンネル分6メガヘルツの信号を抜き出す操作も同じ。
しかしそのためのフィルターを、チャンネルごとに用意するのは大変である。
そこで受信機は、視聴するチャンネルのテレビ信号を、一旦共通の信号帯域である『中間周波数(Intermediate Frequency。IF)』に変換する。
これは送受信において、扱いにくい高周波信号を利用しやすくするために使われるテクニックでもあるが、テレビのチャンネル操作の場合は、全チャンネルを、共通した信号処理回路で処理できるというのが最大のメリットとなる。
いわば中間周波数は全チャンネル周波数に共通に使えるフィルターというわけである。
そしてこの映像の中間周波数には、妨害が発生しにくいとして、58.75メガヘルツが選ばれている。
PLL(位相同期回路)を用いたチューナー
テレビのチャンネルの切り替えに関して、「チャンネルを回す」と表現することがあるが、 これは初期のチューナーが「ターレット式(回転型選局式)」だったことの名残とされている。
ターレット式チューナーは、各チャンネルに対応したコイルやコンデンサの回路を、回転により切り替えるというものだったらしい。
しかし基本的に、周波数のズレや、端子の接触不良などのトラブルが起こりやすかったそうである。
後には、「PLL(phase locked loop。位相同期回路)」というのを使った、「周波数シンセサイザ(Frequency synthesizer)」が使われるようになっていく。
シンセサイザというのは、入力した要素を合成したりして調整し、新たに出力するような装置のこと。
PLLは基本的に、「位相比較器(Phase Compalator。PC)」、「ループフィルター(Loop Filter。LPF)」、「電圧制御発振器(Voltage Contorolled Oscillator。VCO)」などで構成された電子回路。
位相比較器は2つの入力信号の位相差、ようするに、波の周期の重なりを検出する。
「三角関数とは何か」円弧、動径、サイン、コサインの振動と波。
ループフィルタは、位相比較器から出力される、「リプル(ripple)」を含んだ直流信号を平均化し,交流成分の少ないきれいな直流信号に変換するためのフィルタの役割を果たす。
VCOは、入力電圧に応じた周波数を出力する。
PLLには、基準となる信号(入力基準信号)があり、その基準信号と出力信号に、位相差(周期のズレ)がある場合、位相比較器は、ズレに応じた電圧を発生させる。
位相比較器からの出力された信号は、ループフィルタにより、余計なノイズなどが取り除かれるが、この過程はVCOの動作の安定を高めるためらしい。
そして、位相比較器からの出力信号は、ループフィルタを経て、VCOからの出力と、基準信号との位相ズレを修正する。
ようするに、PLLは、ある種のフィードバック回路(出力の一部を入力側にもどし、出力を調整するような回路)。
そのようなフィードバック制御により、出力周波数を、基準に応じた位相、周波数に固定(ロック)するような回路である。
PLLは、現在の通信技術において非常に重要な要素とされており、テレビにおいても、チャンネル同調などの精度を非常に高めている。
ディスプレイの進化
ブラウン管、陰極線管、CRT
わりと長い期間、テレビのディスプレイ(モニター)として標準だった「ブラウン管」の本来の名称は『陰極線管(cathode-ray tube。CRT)』である。
ブラウン管という名は、発明者であるカール・フェルディナント・ブラウン(Karl Ferdinand Braun。1850~1918)が由来。
テレビ放送初期の時代は、このブラウン管が唯一のディスプレイだったから、アナログテレビの規格は、基本的にこれを基準としている。
ブラウン管は、漏斗のような形の真空管内に放たれた電子ビームが、蛍光物質が付いたパネルを発光させるというもの。
ブラウン管で、電子ビームを放つ銃の役割を果たすのは、 熱を受けると電気を発生させやすい物質を付加させた電極(カソード)で、それを内部ヒーターで加熱することで電子を放出させている。
また、電子ビームの量は、受信した輝度信号を基準に、電圧をコントロールすることで調整する。
薄型ディスプレイ
受信機のディスプレイとして、半世紀以上くらい主流であったブラウン管の時代を終わらせたのが、『薄型ディスプレイ(Thin display)』であった。
薄型ディスプレイは、主に使われている素材などにより、「液晶(liquid crystal)」、「PDP(プラズマ。Plasma Display Panel)」、「有機EL(Organic ElectroLuminescence)」と分類されることが多い。
また各デメリットも、研究開発により、だんだん軽減されてきている。
液晶。光スイッチとしての利用
液晶というのは本来は、液体の性質である「流動性」と、結晶個体 が有する「複屈折性」をあわせ持った物質のこと。
複屈折性とは、物質に光が入射した際に、2つの屈折光が現れるという現象。
液晶ディスプレイは、2枚の透明なガラス基板の隙間に、液晶を挟んだ構造となっている。
そして電圧により、液晶分子の向きをコントロールし、結果的に光学的性質を変化させて、光の透過量の調整を行う。
つまり液晶を、光スイッチとして利用しているわけである。
性能的には、高精細な表示、省電力に優れている。
ただし動画表示の際の応答速度がやや遅め。
「ブラウザ」WEB表示の仕組み。レンダリングはいかにして行われるか?
液晶ディスプレイにおけるカラー表示は、液晶自体が発光しているわけではないことから、バックライトとカラーフィルターを組み合わせて利用している。
実はこのバックライトとカラーフィルターの部品は高価で、液晶ディスプレイの製造コストの半分以上を占めているともされる。
PDP。プラズマ放電
PDPは、ガスを入れた放電管に電圧をかけて放電させる。
ガス内の放電で発生した電子や、プラス電荷の荷電粒子がほぼ同数存在していて、電気的に中性なプラズマと呼ばれる状態となっている。
そして、その放電中に発生する紫外線を、管内に塗った蛍光体に当てて、可視光を発生させるという原理。
性能的には、大画面に適していて、動画表示の際の応答速度、解像度も優れている。
しかし消費電力の大きさが課題とされる。
有機EL。最も薄くしやすいタイプ
有機ELは、 電圧をかけると発光する有機物(炭素化合物)あるいは その現象を利用した発光部品(発光ダイオード)のこと。
そして有機ELディスプレイとは、当然これを利用したもの。
省電力、高精細な表示に優れる。
そして何より、バックライトや放電管のスペースが必要ないので、とにかく薄くしやすい。
必要な各有機物は、わずか数百ナノメートル程度とされ、有機ELディスプレイの薄型化に繋がっている。
ただ、大型化が難しく、寿命を長くしにくいともされている。
カラーテレビ。色をどう表現するか
明度、色相、彩度
色を定義する場合に重要となる3つの要素がある。
つまり、『明度(brightness)』、『色相(hue)』、『彩度(saturation)』である。
明度は「明るさ」
色相は「色合い」、あるいは「色調」、「色彩」。
彩度は「鮮やかさ」である。
通常、それらの3要素が表現したあらゆる色は、人間が認識する範囲では、『RGB(赤、緑、青)』の3色を上手く混ぜ合わせることで再現できる
RGB。光の三原色
色が表現されるパターンは基本的に2つある。
「加色法」と呼ばれる、色がついた物が自ら発光する場合。
それに、「減色法」と呼ばれる、自らは発光しないで、当てられた光を吸収することで、色を浮き上がらせる場合。
ようするに、加色法は、複数の光を混ぜ合わせ、色を表現する方法。
減色法は、白色光(RGB全部混ざった色の光)を選択的、部分的に吸収することで、残された光で色を表現する方法である。
RGBは、加色法の、あるいは光の『三原色(three primary colors)』と呼ばれ、カラーテレビの映像の色はこちらの表現方式である。
一方で赤を吸収するシアン、緑を吸収するマゼンダ、青を吸収するイエローの『CMY(CMYK)』は、減色法、あるいは色の三原色で、印刷物などでは、こちらの方法で色を表現する。
CMYKのKは、表現をより明確にするために利用されるのを想定した、たいてい黒塗りの板、キープレートの頭文字らしい。
色ごとの変換。カラーCRT
カラーテレビにおいて、画像の色は、RGBの三原色を組み合わせて表現される。
カラーテレビの撮像に使われるカメラでは、レンズを通った光が、反射鏡やプリズムを介して、三原色に分解され、それぞれの色ごとに、電気信号への変換が成される。
カラーCRT(カラーブラウン管テレビ)だと、ブラウン管内部の蛍光面に、RGB に発行する蛍光体がモザイク状に塗られ、電子ビームを当てると色が発光するようになっている。
蛍光体ごとのサイズ(ドット)は直径0.3ミリ程度と小さいために、我々の目には、ドットごとの色でなく、合わさった画像の色として認識される。
また、カラーCRTでは、RGBの各色に対応した電子ビームをそれぞれ放つ、3本の電子銃が備わっているが、それぞれが映像信号を基準に、ビームの量を(そしてそれによって色の強さを)コントロールする。
NTSC方式。色差信号の便利さ
実はかつて、テレビのカラー化において、大きな問題であったのが、白黒放送との互換性であったらしい。
なるべく混乱を少なくするために、白黒テレビでも視聴が可能な方法で色情報を付加すること。
そして、白黒テレビと同一の周波数で、放送電波を搬送波に乗せることが重要とされていたそうである。
日本でも採用された『NTSC方式』のカラーテレビ放送は、白黒放送との両立性を保ちながら、白黒テレビと同じ6メガヘルツの周波数域で放送を実現するというものであった。
NTSCという名称は、1953年にそれを標準として定めた、アメリカの標準化委員会「National Television System Committee」かららしい。
アメリカでは早くも1954年から、この方式でのカラーテレビ放送がスタートする。
日本は1960年から。
RGBは、それぞれ別々の電気信号なわけだから、単純に情報量は白黒の3倍になる。
その上で、 それまでと同じような6メガヘルツにどのように納めればよいか。
NTSC方式は、「色差信号(color difference signal)」というものを導入することによって、その課題をクリアした。
(白黒テレビの映像信号に相当する)従来の輝度信号Yは、三原色RGBを重ね合わせたものという関係でもある。
つまり「Y = R + G + B」なわけだが、実は人間の目の色ごとの感度が違っているため、実際のYとRGBの関係は、係数を加えて「Y = 0.30R + 0.59G + 0.11B」となることも知られている。
この係数分を抵抗器などで再現すれば、RGBをYに変換する回路も用意できる。
そしてまた、各色の信号は、色信号と輝度信号との差を変換したものでいい。
つまり、RGBの3つの信号を送らなくても、輝度信号Yと、それに対するR成分差(R – Y)とB成分差(B – Y)を示す信号(色差信号)を送ればいい。
G成分差は、「Y = 0.30R + 0.59G + 0.11B」、「R – Y」、「B – Y」などの情報を使えば算出できるから、信号として送る必要はない。
色差信号を使う利点は、すでにその情報が輝度信号に含まれているため、明るさの情報がいらないこと。
色の変化情報はいるわけだが、人間の目は、明るさの変化に比べ、色の変化に鈍感なため、それほど細かいものはいらない。
具体的には、0.5メガヘルツ分くらいの変化情報で十分だとされているという。
さらに、新たなRGB信号でなく、白黒放送にも使われていたYをそのまま利用することで、白黒テレビとの互換性も実現できた。
それでも色差信号自体は、やはり従来の周波数に対する余計な追加分である。
そこでNTSC方式では、映像信号の周波数分布の内の隙間を利用して、色差信号を多重していた。
また、この色差信号というのは便利なので、デジタル放送においても使われているという。
デジタルテレビ。なぜ便利か
標本化、量子化、符号化
アナログデータをデジタルに変換する場合、基本的には「標本化(sampling)」、「量子化(quantization)」、「符号化(encoding)」という段階を踏んでいく。
標本化は、連続したアナログデータ(波形)の一定領域を時間単位で区切り、時間ごとの信号レベルを抽出し、サンプルとする処理。
この標本化における、各サンプル領域が短ければ短いほど、元の波形を再現しやすくなる。
各サンプルをどれくらい短くするか、つまり、1秒間をいくつの数に分けるかということを示す場合に、「サンプリング周波数」という言葉が使われる場合もある。
また普通は、再生する信号の2倍以上のサンプリング周波数で標本化をすれば、元の信号を復元できるという「標本化定理」を基準にする。
量子化は、標本化データに段階を定め、各段階を数値に置き換えていく処理。
いわば、アナログデータからデジタルデータへの変換の処理である
標本化した信号の数値化とも言える。
符号化は、量子化された値を、0と1の2進数に変換する処理。
あるいは、元の情報を、処理内容や目的に適した形式に置き換えたり、暗号化したりする処理。
データの圧縮の段階とも言える。
「ネットワークの仕組みの基礎知識」OSI参照モデル、IPアドレスとは何か
標準画質、高画質
デジタル放送も、走査と伝送で成り立っているのは、アナログ放送と同じ。
ただ走査で得られるのが映像信号でなくデジタル信号で、キャリア(搬送波)への多重の方法も異なっている。
デジタル化された放送は、アナログに比べてメリットが多い。
扱う情報的にあまり劣化しないし、受信環境に応じた調整もしやすいので様々な場所で受信が安定する。
さらにデジタル転送では、データ圧縮技術により、映像音声の信号以外にも余分なデータを送る余裕があるので、番組表や、視聴者へのメッセージなどを付属させることもできる。
さらに映像のフォーマット(走査線数、走査方式、コマ数など)の調整も可能。
走査線数と方式は、もろに画質に関係する。
走査線数はアナログテレビで525であったので、525pとか525iとかのフォーマットは、「標準画質(Standard Definition。SD)」と言われる。
pとかiは、プログレッシブ(p)、インターレース(p)の方式のこと。
つまり従来のアナログテレビは、525iである。
さらに750p、750i、あるいはそれ以上のものは「高画質(High Definition。HD)」とされる。
bps、ビット毎秒
デジタルデータは、情報を、コンピューターにおけるビット形式に置き換えたものとも言える。
基本的な二進数の一桁とされる。
ビットは元は「binary digit(二進法の数字)」の略称らしく、 コンピューターの分野でよく使われるが、今は単に情報の最小単位という意味でも使われることが多い。
特にデジタルデータ通信の速度は、「bps(bits per second。ビット毎秒)」という単位で回すことはないこれは名前の通り1秒ごとにどのくらいのビット数が送れるかを示している。
データ伝送速度の単位には、他に「Bytes/s」というのもそこそこ使われる。
これは毎秒転送可能なバイトを示す。
1バイトは8ビット。
データ通信も、電気通信である以上は、結局途中で、電気信号を伝送波に乗せる段階が必要となる。
ちょっとややこしいとされやすいのが(しかし便利なのが)、1Hz(ヘルツ)に乗せれる情報が1ビットとは限らないこと。
つまり、Hzとbpsはたいてい同じ数字ではない。
そして(通信料を説明する文脈において)普通は「Hz > bps」である。
デジタル化による高画質放送の決め手になった、GI社(General Instrument)が1991年と1992年の「NAB(National Association of Broadcasters)」で行ったデモ。
GI社は、デジタル圧縮技術を用いて、放送電波にデジタル変調を施し、HDTV信号を送信を、15Mbps(1000000bps)程度の通信速度で実現して見せたのだった。
6MHzで確保できる伝送容量は、20Mbpsくらいが限界とされていたから、業界にかなりの衝撃を与えたらしい。
MPEG方式
GI社が提案した映像、音声データの圧縮技術は、後に「MPEG-2」と呼ばれる技術を利用していたという。
MPEGとは、「Moving Picture Experts Group(動画エキスパート団)」から。
Moving Picture Experts Groupは、「国際標準化機構(International Organization for Standardization。ISO)」と、「国際電気標準会議(International Electrotechnical Commission。IEC)という2つの組織が合同で設立した、 動画符号化技術に関する専門家組織。
通常、動画の符号化とは、圧縮効果の高い形式に、動画データを変換することを意味する。
そしてMoving Picture Experts Groupが、規格として定めた国際標準の方式がMPEGである。
情報の圧縮
デジタル放送においても、RGBの映像入力信号は、輝度信号と、色差信号に変換される。
そしてそれらの信号をデジタルデータに変換する。
標本化定理により、標準画質の525iの場合、サンプリング周波数は、映像信号の上限とされている4.2MHzの倍である、8.4MHz以上あればいいことになる。
実際にはもっと余裕をもって、3倍くらいのサンプリング周波数を用いているらしい。
また、標本化された信号を量子化する時に、信号がちょうど区切りのよく数値に分解できるとは限らない。
そこでいくらか差分が切り捨てられるが、これがノイズ(量子化ノイズ)となってしまい、邪魔になる。
しかし、量子化の際の段階分け(レベル)を細かくすれば、ノイズも小さくなり、実質的に無視できるようになる。
子化ノイズは無視できる
そこで、8ビットくらいで量子化すればよいとされている。
そしてここまでの段階でのデータ量は、普通に考えて大きすぎるために、MPEG規格の圧縮(符号化)により、 データ自体の質は劣化させずに大きく圧縮するわけである。
もちろん音声信号も同じように、標本化され、量子化され、圧縮される。
通常、MPEG2の圧縮方式では、デジタル化された映像データの量は1/50程度。
音声データは、1/12程度に圧縮できるとされている。