exB - extreme B-AREA -

無敵の中年男性!的確な中年男性!難攻不落の中年男性!

お勉強:写真 - カメラとレンズのきほん

ほんとにこれ書くのか。めんどくせえ。でも理屈を知っておいたほうがいろいろ楽しいよ。写真についてごちゃごちゃいうオレ様の下地の知識はこんな感じ、と考えてもらってもいい。あるいは知識のおさらいに。

初稿:2013-04-26 最終更新:2017-04-22

※説明用の画像とそれに伴う加筆修正以外、だいたい初稿から変わってません。

最初に知っておきたいこと

レンズを通った光をフィルムやセンサーに記録する、ってことくらいは説明しなくてもわかるよね。

目に映る映像ってのは光の反射である。物体の反射率(吸収率、屈折率)の違いと波長の違いが色となって表れるので、フィルムもセンサーも特定の波長に対して反応する粒子や素子を配し、当たった光の量の多寡でもって明度や色の濃さを記録する。粒子や素子が細かい/小さいほど緻密に記録できるけど、あんまり細かくして光の当たる面積が少なくなると反応しなくなってしまう。このバランスがけっこう重要。

センサーと素子

緻密な記録をしつつ情報量も維持するには素子あたりの効率を上げるか、素子あたりの面積を増やしセンサーを大型化するかの二択となる。

単にセンサーの大きさを変えずに画素数をやたらめったら増やすと、暗い場所での撮影が難しくなる≒高感度画質が落ちる。たとえ同じ1000万画素でも携帯のカメラとプロが使うような高級一眼レフとではセンサーの大きさがまるで違う。デジカメにおいて画素数は性能の絶対基準じゃない。これは非常に大事なことなのでよく覚えておくこと。

プロ御用達フィルムの代名詞、PKM/PKRの感度がISO25/64と非常に低かったのは、粒子がめちゃくちゃ細かいので十分な光を当ててやる必要があったから。

フィルムと違い、デジタルは感度を自由に変更できる。しかし素子が反応する最低限の光量を下回るとノイズだらけでまともに記録できなくなってしまう。年々画素数は増えていってるけど素子あたりの効率がそれに比例して向上しているとは限らないので、特に高感度では暗い条件での撮影例を見ないと実用的な画質は判断できない。高感度作例ではこの点に留意する必要がある。

そんなわけで、実際に製品に搭載する場合、素子効率アップは技術の問題、センサーの面積アップはコストの問題という感じ。歩留まりの関係で大きなセンサーはお金がかかるのだ。

その他、画素数に関して。

  • 画素数が増えると記録量も増える
    =1枚あたりのファイルサイズも大きくなる
    =処理負荷が増え、転送速度も高速化が求められる
    =記録メディアも大容量のものが必要になる。
  • 画素数が同じであればセンサーの大きさが異なっても記録データのサイズは(理論的には)変わらない。
  • 画素数が増えるとレンズに要求される分解能が高くなる。
  • 画素数は最終的に表示する画面や印刷する媒体の大きさに影響する。
  • 画素数が多いとトリミング性は高くなる。
  • 画素数が多いとブレの影響も大きくなる。
  • 画素数が多いとレタッチ等の処理負荷も高くなる。
  • 画素数が多いと店員が売りやすい。

それなりのセンサーの大きさで、十分な光量で、高性能なレンズで、ブレに気を遣えば、画素数は多いほうがよい。ウェブにアップしたりパソコンで鑑賞する程度なら1000万画素もあれば十分お釣りがくる。プリントする場合もA3くらいまでなら1000万画素で問題ない。

参考までに、代表的なデジカメやディスプレイの解像度・画素数と大きさの比較を。クリックで実寸(ちゃんとPhotoshopでキッチリ寸法合わせたぜ!)。

ディスプレイの解像度を画素数に換算すると、フルHD(1920x1080)で約207万ピクセル、話題の4K(3840x2160)でも約830万ピクセル。リサイズをかけない(等倍鑑賞に堪えられる精度できっちり撮った)前提であれば、1000万画素で十分というのを理解できるかと。

それ以上が必要になるのは商用印刷。中判(デジタルバック)になると1億画素センサーのモデルもすでにリリースされている。画素数と解像度とトリミングサイズと印刷方法と出力サイズに関しては別の機会で取り上げる。

ディスプレイの画面出力やインクジェットプリンターの出力と現在の商業印刷の主流であるオフセット印刷における出力では画像の表現方法がまったく異なり、解像度の捉え方も違うので。両者の違いを要点だけかいつまむと、ディスプレイやプリンタはドット(点)の集合で、隣り合う点どうし隙間無くきっちり並んでいて(個々の点の境界がはっきりしている)点そのものに色付けしている。対してオフセット印刷で用いる網点は文字通り網目のように点が並んでいて、網点の間隔(スクリーン線数)は均等だが点の大きさはまちまちで、これによって濃淡を表現している。

センサーの大きさ

デジカメのセンサーはいろんな大きさがある。一眼レフタイプのものは既存のレンズ資産を活用する観点などからフィルムの大きさを基準として設計されているものが多い。

センサーが大きくなると同じ画素数でも面積の広い素子を利用できるため、低感度での階調幅が広がり高感度でも画質の劣化が少ない。ただしコストは高くなり機材も大型化する。またセンサーが小さくなると同じ焦点距離のレンズでも画角が狭くなるため、望遠率がアップする(焦点距離の項で後述)。

フルサイズ
35mmフィルム(ライカ判)とだいたい同じ大きさのセンサー。高級機に採用されていたがコストダウンのメドが立ち最近は低価格機種にも採用がみられるようになってきている。おおむね24mmx36mm。フィルムカメラのレンズの焦点距離をそのまま適用できるのでベテランには馴染みやすい。APS-Cに対して対角長は1.5倍だけれども面積比は2.25倍もある。
なおフルサイズと称しているのは日本だけで、海外では135フィルムの標準フレームサイズ(24x36mm)をフルに使うことから明示的にフルフレーム(Full Frame)と呼ぶのが一般的。ニコンではFXフォーマットと称している。
APS-C (Advanced Photo System Classic)
フィルムのIX240(簡単にいえばカートリッジ規格)におけるAPS-Cとだいたい同じ大きさのセンサー(ハーフ判に近い)。現在もっとも普及しているサイズで、値段と画質のバランスがよい。メーカーによってわりと大きさが違うけど、おおむね16mmx24mm前後。デジタル初期はセンサー製造のノウハウが少なく歩留まりも悪かったため、低価格で量産化できるのはこのくらいのサイズまでだった。ニコンではDXフォーマットと称している。
APS-H
キヤノンが用いてる、APS-Cとフルサイズの中間の大きさのセンサー。ちなみにIX240フィルムにおけるAPS-HのHはHi-Visionを意味しているのでアスペクト比は9:16なのだが、キヤノンデジタル一眼のそれはアスペクト比2;3で面積がAPS-H相当となる。
フォーサーズ
オリンパスとパナソニックが中心となって策定されたセンサー規格。その名(Four-Thirds System)のとおり横縦比が4:3なのが特徴。13mmx17mmとAPS-Cよりもさらに小さい。画角はフルサイズの半分、面積比だと1/4以下なので高感度における高画質化はけっこうたいへんだが、そのぶんシステムはコンパクトで、安価に望遠構成を組みやすい。また小さいセンサーに少しでも効率よく入射光を導くため、テレセントリック性(簡単にいえば後玉からの光が素子に対し鉛直に入るような設計)が配慮されている。
その後マイクロフォーサーズの規格も追加されたがセンサーそのものは無印フォーサーズと変わらない。
その他
ニコンのCXフォーマット(1インチ)などさらに小さいセンサーもたくさんあるが、高画素を追求するほど高感度画質が厳しくなる。
逆にペンタックス 645Zやフェーズワン XF IQ180などフィルムの中判に相当する、フルサイズよりもさらに大きなセンサーのデジタルバックと呼ばれるような製品も存在する。画質に関してはニコンやキヤノンが裸足で逃げだすレベルだがどれもこれも車が買える値段で、また1ショットあたりの処理量もハンパなく大きいため連写が効かず機動性が低い。そのためスタジオなどのコマーシャルフォトが需要の中心となっている。

一緒に並べてみる。

低価格コンデジや携帯のセンサーは下段の1/2.5インチ~1/1.7インチのものがほとんど。APS-Cとでさえ10倍近い面積比の差があるのに、1000万画素なんて詰め込んだら素子あたりの受光量がどれだけ少ないか想像つくだろう。

同じ1000万画素でもAPS-Cの一眼レフとスマホで撮った写真を並べてピクセル等倍鑑賞すれば誰でも画質の違いがわかる(後者はリサイズ前提の1000万画素なのだ)。さらにセンサーサイズの違いは被写界深度とボケの大きさにも関わってくる。スマホの撮って出しできれいなボケなんて無理。逆にこのあたりの違いに興味がない人は、スマホで十分ということでもある。そりゃコンデジが売れなくなるわけだよ。

センサーと集積度

画素数=分解能=単位面積をどれくらい細かく表示できるか。同じ画素数ならセンサーが小さいほうが緻密な記録をしていることになる。代表的な画素数でいえば、APS-Cの1000万画素はフルサイズの2250万画素と、フルサイズの3600万画素はAPS-Cの1600万画素と同じ分解能を持つ。APS-Cの2400万画素はフルサイズの5400万画素に匹敵する。つまりニコンでいうなら分解能自体はD810よりもD3300のほうがはるかに上。ただし単純に集積度が同じなら(高感度)画質も同じ、とは言い切れない。

以下、主要機種と単位面積あたりの集積度を表にしてみた(画素数は総画素数)。わかりやすいようにAPS-Cとフルフレームでの画素数も載せておく。

参考:センサーと集積度(xls)

RAWとJPEG

携帯カメラやコンデジの格安モデルを除いて、大半のデジカメは記録画像の種類を選択できるようになってる。主なものは次の2つ。

JPEG
広く用いられている汎用性の高い画像規格。不可逆圧縮で圧縮率によって画質が変化する。観賞用素材であれば最低でも圧縮率65%以上は欲しい(もっとも85%以上はほとんど有意差として認識できない)。また階調範囲が8bitなので明暗の激しいシーンでは白とびや黒つぶれを起こしやすい。
デジカメではセンサーから受け取ったデータにメーカーなりの味付けを施してから出力(保存)するが、これをJPEG撮って出しと呼び、メーカーや機種によって傾向が異なる。
RAW
センサーから受け取った情報をそのまま記録する方式。メーカー独自形式で汎用性は低くファイルサイズも大きくなるが12bitや14bitでの記録、ホワイトバランスの修正など後処理での調整範囲が広い。レタッチなどを行うには現像処理が必要となる。
なお、RAWデータ自体はコントラストや色合いなどが調整されていないので、一見するとJPEGに比べて鮮やかさを欠いているように映るだろう。ここから現像処理で忠実色なり記憶色なりに調整するのが腕の見せ所となる。最初はJPEGと同時記録をして、(現像ソフトの)どこをどういぢったらいいのかをJPEG撮って出しと比較しながら作業するとよい。

このほかDNGやビットマップ、TIFFでの記録が可能な製品もあるが、特殊な事情がない限りRAWかJPEG(あるいは両者の同時記録)が一般的である。可逆圧縮や32bit階調に対応する、JPEGの置き換えを想定した次世代規格としてJPEG XRも存在するがまったく浸透していない

RAWとビットマップ(Windows Bitmap)との違いを大雑把に説明すると、RAWはセンサーの拾った情報がそのまま(ベイヤー配列であれば画素補完を行う前のまま)ファイル上にビット列で保存されているだけの最も単純なファイル形式。ビットマップは情報を個々の画素として表示可能な状態まで処理し、画像全体の解像度及び個々の画素値に座標を加えマッピングを施したもの。RAWは機種によってフォーマットの詳細が異なるのでそのままだと汎用画像処理ソフトが直接読み取ることができない(画像の解像度がわからなければどの画素値をどの座標にマッピングしたらよいのか判断できないし、そもそも一画素としてまだ成立していない)。

RAWとJPEGの違いは、階調(明暗の差)をどれだけ細かく表現できるかの違いといってもよい。たとえばよく晴れた日に青空に浮かぶ雲と日陰を同時に写しこもうとすると、雲か日陰どちらかの濃淡が犠牲になってしまう(これはフィルム時代も同じ)。

このように何も考えないと、空や雲の部分と日陰の部分、両方とも階調が損なわれてしまう。

自然に存在する階調を完全に再現するのは不可能であり、後処理などで限られた階調をどこに振り分けるかがポイントになってくるが、8bit(RGB各256段階)よりは12bit(同4096段階)や14bit(同16384段階)のほうがこの濃淡を表現できる幅が広い。

参考:RAWデータとディスプレイ

14bit RAWはJPEGよりも保持する情報量がずっと多いものの、そのままパソコンのモニタなどで鑑賞することは現時点では無理。Windows 7以降、OSレベルでのHigh Colorサポートが進んだが、2014年現在市販されているディスプレイはほとんどが単色8bit・・・RGBの合計で8bitx3=24bit≒1600万色フルカラーどまりで、ごく一部のディスプレイとビデオカードがかろうじて10bit出力に対応しているにすぎない(内部で12bitや16bitの LUTを保持し、出力に応じて8bitないし10bitにダウンコンバートしているものはある)。

また現在主流のDVIインターフェイスもRGBそれぞれ8bitまでしかサポートしていない。8bitを超える色深度を扱うには後継規格のDisplayPort(16bitまでサポート)か、HDMI1.3(オプションながら合計48bitのDeep Colorをサポート)を用いる必要がある。

ダイナミックレンジ

センサーの持つ、記録可能な階調の範囲をダイナミックレンジと呼ぶ。先のJPEGの8bitやRAWの12/14bitは記録フォーマットにおける階調範囲であり、センサーが14bitぶんの階調を表現しきれるわけではない。一般に素子あたりの面積が広いほうがダイナミックレンジが広い。現在の一般的な一眼レフのダイナミックレンジは70dB程度で、露出にして9段分前後である。

映画撮影など動画の業務用機器においては、ガンマを対数として記録するLog形式(Cineon形式)が普及しており、ダイナミックレンジは100dBを超えるものもある(露出にして12段~14段相当)。さらにCGの世界では単色24bit(1600万諧調)以上の色深度を持つOpenEXRが標準規格となっているが、これだけ階調が広いとその現像処理の負荷もハンパなく高く、レンダリングにはスパコン並みの性能が必要になってくる。当然モニタも本来なら24bit対応でなければ意味がないが、さすがに合計96bitを同時に再現可能なディスプレイは存在しない(16x3の48bitすら存在しない)。

そんなわけで、画質の面だけでいえばRAWで記録するに越したことはない。ただ連写速度や記録枚数などに制限が生じる場合が多い(オレのD300はJPEGなら連写速度が8コマ/秒だけどRAWの14bitだと2.5コマ/秒まで落ちる)。また後処理も面倒になる。タイミングが重要な報道やスポーツとじっくり構えて撮れるスタジオやネイチャーフォトでは絵作りにおける優先順位が異なるわけだから、状況に応じて使い分けるようにしたい。ちなみにウェブで表現可能な階調は8bit。ネットに公開するのであれば最終的にはJPEGで保存することになる。

色空間

先にも触れたが自然の色は無限といってよい階調の幅があり、現在の技術ではそのすべてを記録・再現することは不可能。そこで記録・再現可能な範囲を色空間(カラースペース、カラーレンジ)として定義したものが規格されており、主に次の2つがよく利用される。

sRGB
もっとも汎用的な色空間。ウェブでの画像表示として定義されているのもこれ。シアン系に弱い。
AdobeRGB
Adobe社が策定した色空間。sRGBよりも範囲が広い。商用印刷など忠実な色の再現性が求められる場合に用いられる。

それぞれのカバーエリアの概念図は以下のとおり(画像作成ソフトやモニタの表示限界があるので厳密な色範囲を示しているものではない)。

さらに広範囲な色空間としてKodakの提唱するProPhotoRGBもありAdobe Lightroomの現像モジュールが採用しているが、少なくとも民生品でProPhotoRGBを表示可能なモニタが存在しないのであまり気にしなくてよい。

DTPなど商用印刷を行わないのであればsRGBでほとんど問題ないだろう。なお色空間の変更ができない機種はsRGBと思って間違いない。

モニタでの鑑賞のようにデジタルデータのまま扱うぶんにはsRGB/AdobeRGBのままで構わないが、印刷する場合はCMYKカラースペースへの変換が必要となる。家庭用の機種は勝手にやってくれるけど、色の再現を厳密に行うにはこのあたりの設定もきっちり行う必要があり素人にはちょっと敷居が高い。

レタッチを行う場合、アプリケーションが設定したカラースペースに対応している必要がある。またディスプレイやプリンタなどとも密接な関係があるのでそのうちちゃんと記事書く。

ホワイトバランス

光は光源の温度(色温度)によって波長が変化する。波長が変化すると反射率も変わる≒反射物体色が変わるため、光源に応じた適切な色温度を設定する必要が生じる。これがホワイトバランスで、文字通り白が白となるよう調整する。商品撮影などでは色温度の管理は非常に重要となる。

フィルムは製品ごとに色温度が決まっており、変更するには別のフィルムを使うかフィルタで波長を変化させる必要があったがデジタルは任意に設定できる。

参考:色色雑学 | コニカミノルタ

基本的にカメラ任せのオートでほとんど問題はないが、夕暮れ時にあえて日中の太陽光(5500度前後)のままにして赤みを出す、といった表現手法もアリ。また夜景や室内など様々な光源が入り混じるような状況もありオートで対応しきれない場合もあるが、ここでも後からホワイトバランスを変更できるRAW記録の優位性は高い。

露出

フィルムやセンサーに光を当てることを露光と呼ぶ。露出は露光量のコントロールで、適正な露光量に対して光量が多いと露出オーバー、少ないと露出アンダーとなる。なお先に触れたダイナミックレンジの関係で、適正露出であってもすべての階調を表現できるわけではないことに注意。

ハイライト、シャドウ

輝度(明るさ)の高い部分をハイライト、低い部分をシャドウと呼ぶ。センサーの持つダイナミックレンジを越えハイライトの諧調が損なわれた状態が白トビ、シャドウのそれが黒潰れ。白トビ状態は情報量ゼロのためこちらを避けるのが一般的で、弱アンダーくらいの気持ちで撮るのがデジカメのセオリーと思ってよい。もちろん状況次第なので必ずしもハイライトを優先すればよいとは限らないが、ハイライトとシャドウでは前者のほうが人間の目で認識しやすい≒黒潰れよりも白トビのほうが目立ちやすい、ということも覚えておこう。

実際には構図全体に占めるハイライトとシャドウの割合や主体の輝度、位置など様々なファクターを考慮して何を優先すべきか判断することになる。たとえばオレ様のメインターゲットである競馬においては、黒鹿毛の馬が主体であればシャドウを優先して適正からややオーバー気味に露出を設定し、かつできるだけ馬を大きく写すことでハイライト部分を目立たなくする、といった具合である。これがクーリンガーのような芦毛の場合はまるっきり逆になる。

実はネコの写真はフィルム時代から超難しい題材のひとつで、特に黒白両方の毛色が混在するとリバーサルじゃラチチュードに収まりきれないのでネガのほうが撮りやすかったり。

絞りとシャッタースピードの関係

フィルムやセンサーに当てる光の量は、絞りシャッタースピードで調整する。これはバケツに水を貯める作業に喩えられる。

  • 絞りは水道の蛇口の回転(単位時間あたりの水量)
  • シャッタースピードは蛇口を開いている時間

バケツ1杯の水を貯めるのに蛇口全開なら数秒で済むが、ちょっと緩めただけなら何分もかかる。写真も理屈は同じ。あとは明るい場所は水量がふんだんにあり、暗い場所はチョロチョロとしか流れてないと考えよう(もとの水量がチョロチョロでは蛇口全開でも水が溜まりにくい)。

絞り

絞り込んだ状態絞りはレンズを通過する光の量≒瞬間の明るさ(露光量と呼ぶ)を制御する。

通過する穴の大きさ、すなわちレンズの直径と焦点距離との対比
 f=1:2.8
のように示す(一般的にはF2.8やf/2.8と表記されることが多い)。焦点距離が100mmで口径が50mmならF値は2.0となる。値が大きくなるほど穴の径が小さくなり、光の量は少なくなる。つまりこの数値が小さいほど大量の光を取り込める明るいレンズというわけ。穴の径が最大の状態を開放と呼び、開放F値としてカタログには必ず記載されている。明るい=絞り値の小さいレンズはレンズの加工難易度が高くなるので高価となる。一般に明るい、大口径と呼ばれるレンズはF2.8以下を指す(焦点距離400mm以上になるとF4やF5.6でも大口径扱いになる)。

焦点距離と口径が等しいとF1.0となるが、F1.0以下のレンズもごく少数だが存在し、高速シャッターを切れることからハイスピードレンズなどと呼ばれることもある。大気の屈折率と正弦条件(コマ収差を生じないための条件)の関係でF値の上限はF0.5となるが、これはレンズで最外周からの入射光が焦点に対し垂直に向かったときの理論値でそんなものは作れない。実製品としてはCarl Zeiss Planar 50mm f/0.7が限界だろう。

視力の悪い人はものを見づらいときによく目を細めるように、絞りの穴も小さくなるとピントの合う範囲が広くなる。このピントの合う範囲を被写界深度と呼ぶ。被写界深度のコントロールは数ある写真表現の中でも代表的な手法である。

まとめると、絞りは次の法則が成り立つ。

  • 開放ではピントを合わせた部分以外のボケが大きくなる。
  • 絞り込むとピントの合う範囲が広くなる。

なおボケを味として活かすのは日本ならではの表現手法で、海外でも注目されるようになったのはわりと最近のことである。そのためボケの英語表記もBokehとなっている。

シャッタースピード、シャッター速度

シャッターは光がレンズを通る時間(露光時間)を制御する。幕を開閉することで露光の開始と終了を行う。当然開閉時間が短ければ光の当たる量は少なくなり長ければ多くなる。

初期のシャッターは絞りを利用したレンズシャッター(左)が主流だったが、高速化が難しかったことから一眼レフの普及とともにフォーカルプレーンシャッター(右)へと移り変わった。デジタル化以降は物理的な可動部品のない電子シャッターも組み込まれるようになっている。それぞれ一長一短あるがまたの機会に。

シャッターが制御しているのは露光時間なのになぜ“速度”と呼ぶのかは、昔なんかの本で読んだけど忘れた。日光写真の時代の名残かなんかだったような気がするけど、露光時間を短くするにはシャッター幕の速度を上げないといけないから、そのへんが由来してるんじゃないかな。

速いシャッター速度はザ・ワールド動いているものを止める効果がある(ブレの軽減)。止めるのにどのくらいのシャッター速度が必要になるかは被写体の動きとレンズの焦点距離にも関係してくるが、標準レンズの場合高速シャッターはおおむね1/250秒以下、低速は1/30秒以上と考えてよい。手ブレ限界として一般的な目安は焦点距離分の1秒で、たとえば50mmのレンズであれば1/60秒よりも速いシャッター速度であれば手ブレの影響を受けにくくなる(フルサイズの場合)。まあこれは経験値によって左右されるので、初心者だと1/250秒でもブレることはあるし、上手な人であれば1/15秒でもちゃんと止めることができたり。

シャッター速度が遅くなると動いている被写体は流れるように記録される。これを積極的に活かした手法が流し撮りで、あえてシャッター速度を遅くして動いているものを追いかけることで背景だけが流れ疾走感を演出できるため、レース分野ではごく普通に用いられている。

まとめると、シャッター速度は次の法則が成り立つ。

  • シャッター速度を上げると動きが止まり被写体のブレや手ブレを軽減できる。
  • シャッター速度を下げると動いている被写体が流れ手ブレの影響も大きくなる。

最近のカメラ/レンズは手ブレ補正機能を組み込んだものが増えているが、手ブレ補正では被写体のブレまではカバーできないことに注意。動き物を止めるには速いシャッターを切るしかない。たとえば競馬写真の場合サラブレッドは時速60km/hくらいで走ってる。1秒の移動距離は約16mなので止めようと思ったら≒被写体の移動を1cm以内に抑えるなら単純計算で1/1500秒以下のシャッター速度が必要になる。どのくらいのシャッター速度で止まって見えるかどうかは先述したように被写体までの距離とレンズの焦点距離にもよるが、手ブレを起こさない目安はフルサイズ換算で 1/レンズの焦点距離 秒 とされている。

また1秒を超えるようなシャッター速度(スローシャッター)ではセンサーに電気ノイズが混じりやすくなるため、ノイズリダクションも備わっていることが多い。

長時間露出のノイズリダクションは高感度ノイズリダクションとはまったくの別物。低速時のノイズは電流のリークが原因で論理的に発生パターン特定できるため確実な効果がある(但し、処理にシャッター速度と同じ時間を要する)。高感度ノイズリダクションは足りない情報を擬似的に再現するため効果には限界がある。

ちなみに一眼レフの機械式シャッターは2枚の幕を上下に動かして露光させる(縦走り、昔は横走りが主流だった)。理論的にはセンサーサイズが小さいほうが走行区間が短くなるので高速化できる。APS-Cやフォーサーズはこのメリットをもっと活かし高速・高機動に特化した製品を作ってもよいと思うのだが、そうした動きがまったくみられないのが残念。

最適値はない

絞りとシャッタースピードの組み合わせはひとつではない。たとえば絞りF2.8&シャッター速度1/2000秒と絞りF16&シャッター速度1/60秒は同じ露光量となる。前者は被写体以外はボケて主体だけが浮き上がるような写真になるだろう。後者は画面全体にピントが合い見通しがよくなるだろう。これは良し悪しではなく撮影者の表現意図の違いでしかない。以下の表は同じ露光量となる絞りとシャッター速度の組み合わせ(単位:EV)。

※一般に、晴天の屋外がEV14とされる。

つまり絞りとシャッター速度をどう組み合わせるかに思考がいくようになれば、晴れて初心者卒業といえるだろう。

なおシャッター速度は露光時間なので速度を倍にすると光量は半分になる。絞りは露光面積なので値を2の平方根≒1.4倍すると光量が半分になる。露出値の調整は2の倍数単位で1段、2段という呼び方をしており、1段明るくする、2段暗くする、といった使い方をする。

感度

絞りもシャッタースピードもカメラやレンズの持つ設定範囲に限りがある。それを補うのが感度で、センサーの処理効率を変化させることで同じ光の量でも露出をコントロールできる。ASA、ISO、DINなどいくつかの基準が決められており、感度を上げると少ない光で適正露出を得られるが、元の信号が小さいと余計なノイズまで増幅されてしまうため記録精度は下がる=画質が悪化する。つまり露出の許す限りできるだけ低い感度に設定したほうが高画質で記録できる(拡張感度は除く)。

アメリカの工業規格であるASA感度を国際標準化したものがISO表記なので値は同じ。100、200、400・・・の順で表記どおりに感度が倍になる。DIN感度はドイツ工業規格でASA/ISOとは異なり対数表記となっており、感度が倍になると値(表記は°)が3上がる。ISO100がDIN21°で、ISO400ならDIN27°

フィルム時代の基本感度はISO100で画質に大きな影響がないのはせいぜいISO400までだった。デジタルは日進月歩で素子効率が向上しており、高級機ではISO6400でも鑑賞に耐え得るものもあるが、基本感度の目安はISO400くらいだろう。なお晴天下の海水浴場やスキー場のように光量が非常に多い状況では設定できる最低感度でも露出オーバーとなることもあるため、感度が高ければよいというものでもない。

なお最近のデジカメはほとんど感度自動設定機能が備わっており、特に意識しなくても絞りとシャッター速度による露出決定を優先できる。ただし意図しない高感度化で画質の劣化が想定を超えるようなこともあるので注意。

レンズについて

経験を積むほど、上級者になるほど、ボディよりもレンズにお金をかけるようになる。それくらい絵作りを左右する要素で、また“沼”と呼ばれるほど奥が深い。

焦点距離と画角

レンズのスペックでもっともわかりやすいものが焦点距離で、入り口からフィルムやセンサーなどの結像面(焦点)までの距離を表す。焦点距離が短いほど写る範囲(画角)が広く、長いほど狭い。要は筒の長さみたいなもので、筒を覗くイメージで考えるとわかりやすいだろう。

レンズの内部では複数のレンズを組み合わせ複雑に何度も屈折を繰り返しているが、これを一直線にしたとき・・・全体を1枚のレンズに置き換えたときに入射光が屈折を開始する位置(レンズの中心)を主点と呼ぶ。主点から焦点までの論理的な全長が焦点距離(厳密には第二主点から焦点までの距離だけど)で、レンズの先端…いわゆる前玉からの直接的な距離とは異なる。だからカタログ上の焦点距離が20mmだからってレンズ全長が2cmなんてことはないし、600mmだから全長60cmというわけでもない。ところでカタログとかサイトを注意深く読むと、撮影用レンズの英語表記は“Lenses”と複数形になっていることがわかる。複数のレンズで構成されているから。

同じ焦点距離のレンズでもAPS-Cやフォーサーズなどのスモールセンサーのレンズではフルサイズに比べて映る範囲が狭くなる。レンズの焦点距離はフルサイズカメラを使用した時の数値で表すのが慣例化しており、カタログなどで「APS-Cではフルサイズ(35mm)換算で○○mm」と表記されているので誤解してる人をたくさん見かけるが、センサーの大きさが変わろうがレンズの焦点距離そのものが変わるわけではない変わるのは画角である。厳密には「APS-Cではフルサイズ(35mm)換算で○○mm相当の画角と表記すべきなのだが・・・。

参考:snapman.net|35mm換算.com

換算焦点距離に加え、画角もちゃんと併記している(こういうサイトが増えて欲しい)。作者のサイトには他にも対角長算出とか、写真好き向けのスクリプトが充実している。

被写界深度も焦点距離に依存する要素なので、小型センサーでは画角とボケがフルサイズの感覚と一致しないことがある。たとえばスマホなどで撮った望遠の画像を見てもやけに背景がくっきりしててピンとこなかったり(個人的にはフォーサーズが限界)。

焦点距離の区分

一般的に3つに分類される。

標準レンズ
50mm前後の焦点距離は画角45~50度と人間の目の視野に最も近く、遠近感も自然なため標準レンズとされている。
広角レンズ
標準レンズよりも広い画角を写せるレンズ。おおむね焦点距離35mm以下のレンズを指し、特に画角が100度を超える20mm以下を超広角と呼ぶ。
画角が180度を超えるものは魚眼レンズとされ、さらに対角線方向が180度を超えるものを対角魚眼、全方向で180度を超え撮像が円形となるものは全周魚眼となる。
望遠レンズ
標準レンズよりも狭い画角のレンズ。特に400mm以上を超望遠と呼ぶこともある。
望遠レンズの中でも85mm~135mm前後の中望遠レンズは取り回しのしやすさ、ボケ味の美しさ、被写体の写し込みの大きさなどから別名ポートレートレンズとも呼ばれ、人物撮影で重宝されている。

例に挙げた焦点距離はフルサイズでのもので、APS-Cだと50mmは中望遠扱いになるし、中判では広角となる。繰り返すが標準・広角・望遠の基準は焦点距離ではなく画角ということを忘れずに。

焦点距離と遠近感

焦点距離が短いレンズでは遠くのものはより遠く小さく写り、遠近感(パースペクティブ)が強調される。望遠レンズはこの逆で、遠くのものをより大きく写し、近くに引き寄せたような圧縮効果が得られる。

どちらも撮影位置と被写体までの距離はほぼ同じ(3メートル前後)だが、背景の看板の距離が24mmでは遠く、180mmでは近くに感じられる。

焦点距離と撮影距離

レンズは無限遠にピントを合わせたときを基準に設計されている。カタログ表記の焦点距離も無限遠のもの。現在のレンズのほとんどは被写体までの距離によって実焦点距離が変化する(すなわち画角が変化する)。これは高倍率ズームレンズで特に顕著に表れる。

絞りと開放F値

レンズのスペックで最初にチェックすべき項目は開放F値だろう。絞りによって露光量を調整することは先に触れた。開放F値が小さいほど明るいレンズとなり、速いシャッターを切ることができるほかファインダーで見える像も明るくなり、オートフォーカスの精度も高まるといいこと尽くめである。

ただし明るくするにはレンズの口径を大きくする必要がある。すなわちデメリットは大型化とコストアップだけなので、予算と体力の許す限り明るいレンズを選んだほうが撮影の自由度が高まるだろう(旅行などではジャマになるかもしれないが)。

「無限遠からの光のうちレンズに入射するものは口径に等しい太さを持つ=無限遠にある点光源がつくるボケは主被写体の位置での見かけの直径と同じ」かつ「背景距離が被写体距離の倍の場合、ボケの見掛けの大きさは口径の半分」という法則が成り立つ。平たくいえば大口径ほどボケも大きいということ。背景をキレイにボケさせるには少しでも明るい=大口径のレンズが望ましい。

被写界深度と焦点距離の関係

同じF値でも焦点距離が変わるとピントの合う範囲(被写界深度)も変わる。焦点距離が短いほど深くなり、超広角レンズともなると少し絞っただけで全体にピントが合うようになる(パンフォーカス)。

逆に望遠レンズは被写界深度が狭く、ピントの合わない部分がきれいにボケる。ポートレートに85mmあたりの中望遠が好まれるのはこのためだが、大口径の超望遠ともなると笑っちゃうくらい狭くてシビアなので高い精度のピント合わせが求められる。

たまに間違えてる人がいるけど、被写体深度ではない。

被写界深度と被写体までの距離

被写界深度は手前に浅く、奥に深い。つまり被写体までの距離が近いほどピントの合う範囲は狭く、遠ざかるほど広くなる。

被写界深度と過焦点距離

被写界深度の後端が無限遠となる距離を過焦点距離と呼ぶ。レンズの焦点距離によって、また絞りの値によって変化する。これを利用したのがパンフォーカス。

被写界深度と許容錯乱円

ボケの正体とは結像のズレである。このズレが大きくなると点を点として認識できず円になってしまう。点を点と許容できる円の大きさ、つまり鑑賞する上で識別できないボケの量を許容錯乱円と呼ぶ(ボケ=錯乱円)。

許容錯乱円・・・ピントがあっているとみなせるボケの大きさは出力するサイズによって変わってくる。フィルム時代は慣例的に1/30mmを基準として設計が行われてきた。デジカメにおいては等倍鑑賞が当たり前に行われているため、1/30mmだと素子のサイズ(画素ピッチ)によってはピントが甘く感じるケースも出てくるだろう。言い換えれば画素ピッチよりも小さなボケはボケとして認識できない。

整理すると、許容錯乱円を超える結像のズレがボケと呼ばれるもので、被写界深度とは撮像面上の結像のズレが許容錯乱円内に収まる被写体側の前後の奥行、となる。撮像面における前後の奥行は焦点深度(像面深度)。被写界深度=焦点深度に対応する被写体側のピントの深さ。

イメージサークル

レンズを通った光がセンサーに届く範囲には限りがあり、光軸の中心から一定の半径を越えると光が届かず真っ暗になってしまう。この入射光が届く円形の有効範囲をイメージサークルと呼び、センサーの大きさよりも広くなるようレンズを設計する必要がある。センサーの対角長≦イメージサークルの直径であればよいがまあ、普通は余裕を持って作るものである。

フルサイズ用のレンズをAPS-Cに使うことはできるが、APS-C向けに設計されたレンズをフルサイズで使うと周辺にイメージサークルに収まらない暗い部分ができてしまう(ケラレ)。また一般にレンズ性能は周辺部よりも中心部がシャープでコントラストが高く光量不足や歪みも発生しにくいため、同じレンズを使った場合フルサイズよりもAPS-Cのほうがおいしい部分を使えることになる。たとえばフルサイズだと開放から2段絞らないと周辺画質が落ちるレンズでも開放でイケたり。画角を稼ぎたい広角で映る範囲が狭くなるのはデメリットになってしまうが、望遠ではむしろメリットとして捉えられるので、フルサイズ用の望遠レンズを使いまわすのは理に適っているといえる。

その他の分類

接写とマクロ

通常のレンズよりも最短撮影距離の短い設計のレンズは接写レンズとされ、花を画面いっぱいに写したい、なんて場合に重宝する。中でもフィルムやセンサーに被写体を等倍以上で写せるものマクロレンズと呼ばれる。最短撮影距離を英語にするとMODだが、日本では略称で呼ぶことは少ない。

ただしマクロを定義どおりに扱っているのはニコンだけで、他のメーカーは接写全般をマクロと称している(ニコンは接写レンズをマイクロニッコールとしている)。

なお最短撮影距離に対しレンズの前玉から被写体までの距離がワーキングディスタンスで、実際にどこまで被写体まで寄れるかどうかの目安になる。最短撮影距離やワーキングディスタンスは利便性に大きく影響してくるのでレンズ選びの際にはぜひ気にして欲しい。

単焦点とズーム

焦点距離が固定のものが単焦点、可変のものがズーム。ズームレンズの広角側をワイド端(ワイ端)、望遠側をテレ端と呼ぶこともある。利便性は圧倒的にズームのほうが高いけれども設計の難易度が高くなり、また単焦点にくらべて性能面で劣る傾向にある。

ワイ端とテレ端の比率がズーム比で、無理のない設計はおおよそ3倍程度まで。それ以上の高倍率ズームはワイ端で画像の歪みが目立ったり開放F値がテレ端で極端に暗くなるなど、何かしらの性能を犠牲にしていることが多い。高級なズームレンズはズーム比の高いレンズではなく、開放F値が小さく、かつテレ端とワイ端で開放F値の変わらないレンズである。

ただし低予算で広範囲の焦点距離をカバーできる、持ち歩くレンズが少なくて済む、レンズの付け替えが不要なのでシャッターチャンスに強いなど高倍率ズームにもメリットはあるので、目的によっては十分選択肢となるし初心者のうちは高倍率ズームで構わないだろう。撮り続けて不満が出たら、その理由は何なのかをきちんと考えたほうが上達の近道だろうし。

ズームとバリフォーカル(VariFocal、可変焦点)

ズームは一度ピントを合わせれば画角を変えても結像位置が(ほとんど)変動しないが、バリフォーカルでは焦点距離によって結像位置が変化するので都度ピントを合わせないといけない。つまり画角~構図を決めてからピントを合わせる、という手順を踏む必要がある(ズームであれば手順は意識しないでよいし、望遠側でピントを合わせ、広角側にシフトというのはマニュアルフォーカス時代の基本であった)。ただバリフォーカルにはレンズ構成をシンプルにできるメリットがあるので産業用レンズで多く見られたが、オートフォーカスが当たり前になったことで一般撮影用のレンズへの採用も普通になった。AF時代の高倍率のキットズーム、監視カメラなど値段やサイズに制約のあるレンズではバリフォーカルを採用していることが多い。しかし表向き「バリフォーカルですよー」とは記されてないこともまた多い。現在のズーム比3倍を超えるようなレンズの大半はバリフォーカルと思ってよい。なお厳密にはズームもバリフォーカルの一種。

レンズ性能の評価

焦点距離やF値のような基本的な仕様のほか、実際の描画に影響する大きな要素として各種収差と分解能がある。

収差

光がレンズを通過する際、波長による屈折率や通貨位置の違いなどにより微妙なズレが生じる。こうしたズレによる影響を収差と呼ぶ。具体的には色の滲み(色収差)や像の歪み(歪曲収差)、入射光の結像面での非収束(コマ収差)など様々なものがあるが、いずれにしても見た目の不自然さに直結するため収差の抑制はレンズメーカーの腕の見せ所であり、各社レンズ設計の見直しや乱反射を防ぐコーティング、特殊なガラス素材の開発など工夫に余念がない。高級なレンズほどふんだんに技術が投入され少なく抑えられている。高価なレンズにはちゃんとそれなりの理由があるわけ。

レンズ製造はただでさえ思いっきりノウハウがものをいう分野で、さらに高品位なレンズの仕上げは手作業で行われている職人の世界であり、後発メーカーが短期間に自力で追いつくのは不可能に近い。ソニーはカールツァイス、パナソニックはライカと、既存のメーカーとの技術提携という現実的な選択をしている。そんなわけでサムスンがどれだけ電子技術を確立しようが、現状ではシグマやタムロンと提携でもしない限り総合メーカーとして追いつくのは無理。

収差とは異なるが、レンズが光源方向を向いた逆光状態では乱反射によってゴーストやフレアなどの光カブリが生じやすい。これらを適切に抑えることも大事。

周辺減光

レンズを通過する光は口径食やコサインの4乗則の影響により中心部に比べて周辺部の光量が減少する。理論上ゼロにはできないが、少しでも影響が少なくなるような設計が求められる。

フードについて

上記で触れた逆光のような状態ではレンズ内に不必要な光が侵入・乱反射しやすくなる。このような余計な光を遮るのがフードでレンズ先端に装着する。単焦点では円形、ズームレンズでは星型/花型と呼ばれる切れ込みの入った形状となっている。レンズによっては別売りとなっているものもある。

切れ込みがあるのは、望遠側に最適化したままだと広角側で構図に写りこんでしまうため。安価なズームでは円形のものもあるが花型に比べて望遠側の遮光効果が少ない。

コーティングの進化などでフードを装着しなくてもフレアやゴーストはかなり抑制できるようになったが、遮光以外にもフィルタや前玉を保護したり雨天時に水滴が付くのを軽減する効果もあるので極力装着したほうがいいだろう。見た目もかっこよくなるし。

なお超広角レンズではフィルタを複数重ねた状態でフードを装着するとケラレを生じる場合もあるので注意。またフラッシュ撮影の際も広角レンズではフードの陰が画面に写りこんでしまうのでフードを装着しないのがセオリー。

分解能とMTF曲線

センサーとレンズはビデオカードとディスプレイの関係に似ている。ビデオカードがどれだけ優れていても、モニタの解像度の上限よりも緻密な表示はできない。

レンズにおける解像度は分解能とも呼ばれる(というかそれが本来の解像度の意味なのだが)。一般に、絞り開放の状態よりも多少絞ったほうが解像力は高まる傾向にある。ただし絞りすぎると今度は回折の影響を受けてしまう。焦点距離などにも拠るが、開放F値F2.8のレンズの場合だとF4からF11くらいまでがレンズの持つ分解能を発揮できる範囲となる。

分解能の指標としては単位あたりどれだけ細かい線を識別できるかを表したMTF曲線が広く用いられている。これは放射方向と同心円方向の解像度とコントラストをグラフ化したもので、グラフの右側にいくに従ってレンズの周辺部分を表し、MTF曲線がフラットに近いほど全域に渡って優れた分解能を有していることになる。周辺画質が落ちるのはある程度は仕方ないので、途中に谷間がない緩やかなカーブを描いているのが理想。非常に大雑把な目安としては、曲線の大半がコントラスト値0.6~0.7よりも上に収まっていればかなり優秀なレンズといえる。

例はNikon AF-S VR Zoom-Nikkor ED 70-200mm F2.8GのMTF曲線である(望遠側)。中心から15mmあたりまでは良好な特性だが、周辺画質が急激に落ちているのがわかる。なおこれは開放でのものなので、一段でも絞ることで大幅に改善されることが多い。このレンズもF4まで絞ると周辺の解像度も非常に引き締まる。

市販レンズの中では2013年に発売されたニコンの800mm F5.6のMTF曲線は特筆モノで、リリースされた際に「MTF直線」と揶揄されるほど限りなくフラットな特性だった。テレコン装着してもほぼ全域で0.9以上に収まってるレンズ初めてみたよ。

ただ、MTF曲線がレンズ性能のすべてではない。レンズを特徴付ける要素には発色やボケ味など数値化できないものも存在するので、カタログ上のスペックを鵜呑みにしないこと。

小さいセンサーになるほどレンズの解像度が高くないと実際に結像された写真がボヤけてしまう。つまり携帯カメラの高画素化は、素子だけでなくレンズ分解能の進歩もあってのことなのである。中判・大判カメラともなるとセンサーの密度がレンズの分解能を超えてしまうケースもある。なお数万~数百万光年彼方の光を捉える望遠鏡の世界では写真用レンズよりもはるかに分解能に対してシビアである。ただ望遠鏡・・・天体観測は焦点が事実上無限遠固定であり、分解能だけをもって望遠鏡のレンズのほうが優秀と判断するのは早急である。

一眼レフとミラーレス

ミラーレスをノンレフレックスと呼ぼう、なんて声もあるが企画倒れじゃないの。

昔のフィルムカメラはレンジファインダーといって、構図を決めるためのファインダーが別に用意されていた。この方法はボディの構成をシンプルにできるメリットがあるのだけれども、ファインダーで覗く像と実際に写る像とを完全に一致させるのはかなり難易度が高く、またレンズ交換するとファインダーも変更しないといけないなどの欠点があった。

これを解決したのが一眼レフで、レンズとシャッター(フィルム))との間に可動ミラーを配し、さらにプリズムを経由させることでレンズを通した像を直接確認できるようになった。以降、レンズ交換型のシステムカメラの主流は完全に一眼レフ方式に移りレンジファインダー方式は中判カメラやライカなど一部のマニア向けを除くとミラーレスの登場まで絶滅寸前まで追いやられた。

中判カメラでもミラーを備えたものはあるが、一眼レフのクイックリターンミラーのような高速動作をさせるにはミラーが大きすぎるため、せいぜい6x7版くらいまでで連写にも向かなかった。フルサイズやAPS-Cというフィルム/センサーサイズは一眼レフのメカニカルなシステムにおいてもベストバランスだったわけ。

ミラー機構は見た目の動作から受ける印象よりもかなり高度な技術で、オートフォーカスが浸透するとさらに厳密なものになった。現在のミラーはファインダーに像を導くだけでなく、マイクロプリズムを組み込むことでオートフォーカス機構や露出計にも入射光を提供している。それゆえ精度の高い技術が必要なのだ(ミラーを指で触るなんてもってのほかである)。

ミラーだけでなくプリズムも視野率とファインダー倍率、明るさを実現するためには高い精度での加工技術が求められる。デジタル化≒電子化が進むことで参入障壁が下がると踏んだ電子機器メーカーが、それでもシステムカメラで成功を収められなかったのは、主流が一眼レフ形式である以上メカニカルな技術の立脚が不可欠だったのが原因で、そのブレイクスルーとして登場したのが、ご存知ミラーレスである。

その名のとおりミラーを使わず、センサー入力をそのままモニタに表示する。早い話がレンズ交換式のコンデジである。もちろんシャッター機構をはじめ一眼レフ譲りの技術も数多く使われているが、機械的な仕組みが減ることでパナソニックやソニー、サムスンなどの新参メーカーやオリンパスが積極的に採用、遅ればせながらニコンとキヤノンもミラーレスをラインナップに追加し、今後の発展がもっとも期待されているカテゴリーとなっている。

メリットとデメリット

与太話はさておき、一眼レフのメリットは被写体を生で確認できることに尽きる。また精度は求められるが仕組み自体はシンプルで枯れた技術なので機構的にも安定している。デメリットは次の3つ。

小型化に限界がある
ミラーが稼動する範囲が干渉しないようフィルムやイメージセンサーからレンズの後玉≒マウント面までの距離(フランジバック)を長めに確保しないといけない。
像消失時間が生じる
シャッターを切る=露光中はミラーが上がっているので視野を確認できない。
高速化に限界がある
ミラー機構への負担を考慮すると連写速度は10コマ/秒程度で頭打ちになる。
※但し半透明の固定ミラーを用いることで10コマ/秒以上の連写を実現した製品も存在するが、ファインダー像が暗くなるなど別のデメリットも生じる。

機能や性能面以外にもミラー機構のぶんコストがかかる、という側面もある。ミラーレスのメリットはそっくりこの正反対だが、他にも見ている像がほとんどそのまま実際に写る画像になる(特に発色やホワイトバランス)、光学ファインダーでは難易度の高い視野率100%や、クロップなしのアスペクト比変更を容易に実現できる。また短いフランジバックを活かして様々なレンズを装着できるのもポイントが高い。

デメリットは実際の被写体を確認しているわけではないため、ライブビューだろうがなんだろうがリアルな状況とのタイムラグをゼロにはできないことだろう。表示に電力を使うためバッテリーの消費も激しくなるほか、ファインダーを備えていない機種の場合、一眼レフよりもフレーミングの安定性に劣るため手ブレを起こしやすくなる。また高速オートフォーカスの主流である位相差検出方式の実装が難しいため動き物に弱い。

現時点では技術の完成度やノウハウの積み重ね、豊富な既存資産などまだ一眼レフに軍配が上がるが、今後ミラーレスが優位に立つ可能性は決して低くない。むしろニコンとキヤノンというカメラ業界の双璧が本腰を入れてないだけで、その気になるまでの時間の問題なのかもしれない。

ニコンとキヤノンがカメラ業界で、特にプロユースにおいて不動のツートップに君臨し続けているのは、製品の優秀さもさることながら充実したサポート体制に拠るところも大きい。プロのニーズに応えられる製品を出せる、と判断すればすんなりミラーレスへ移行しても不思議はない。

そんなわけで

駆け足で写真のきほんをざっと並べてみた。裏取りせずに書いたけどたぶん間違ってないはず(間違ってるところあったらごめん)。どうしてこういう写真が撮れないのか?の手助けになれば幸いである。これらを踏まえた上で、何をどう撮りたいか、まで思考が行くようになるとすごく楽しくなるぞ、撮るのも機材を選ぶのも。

まあ初心者だろうが素人だろうが、ガンガンシャッター切ってればそのうち1枚くらいは素晴らしい写真がある。それを狙って撮れるのがプロやベテランと思うからみんな理屈にも詳しくなろーぜ。

・・・あと足りないのはストロボ、フィルターワークといった撮影補器に関するお話かね。三脚/一脚もかな。このへんもおいおい。

脚注

PKMとPKR
リバーサルフィルムの傑作にして超ロングセラーであるコダクローム25&コダクローム64のプロ仕様。といっても誰でも普通に買えた。35mmポジからでも全紙に引き伸ばせるほどの粒子の細かさ、温かみのある発色、さらに外式という特殊な現像方法により退色性も優れていたため世界中のあらゆるプロカメラマンに愛された。デジタル以前の商用写真の9割はPKMかPKRだったんじゃないかな(残り1割をフジクロームが必死にがんばってた)。コダックが倒産したのは皮肉にもコダクロームが優秀すぎたせいなんだと思う。とっくに製造終了し、国内の現像所も外式の取り扱いを終えている(海外は知らんよ)。
なお、ただでさえリバーサルはネガに比べてラチチュード(露出許容誤差)が狭いのだけれども、PKM/PKRはロットごとのデータシートが添付されてるほどピーキーで、そういった点でもほんとにプロ仕様だった。正確な発色を求めるスタジオカメラマンらにとって必要なものだったのだろうが俺にはとても扱いきれず、結局RDP(フジクローム100)に落ち着いたのである。それを思えば撮影内容をその場で確認でき、多少露出がズレてもレタッチでかなり修正が利くデジタルのなんと楽なことか。おかげで漫然とシャッターを切るようになってしまったよ。
ちなみにコダックの傑作フィルムには黒白のトライXというものもあり、基本感度はISO400だけど広いラチチュードと高い増感耐性でこれまたロングセラーとなりプロにアマに愛された。
外式と内式
リバーサルフィルムの現像方法は2種類ある。もともとリバーサルフィルムは黒白現像と発色現像の二段階で処理を行うが、発色現像において現像液にカプラー(色素を形成する発色材)を混入する方法が外式。カプラーをあらかじめフィルムの乳剤に混入しておくものが内式。内式は現像プロセスがシンプルで済む反面カプラーのぶん乳剤の量が増え感光層が厚くなってしまうため、よりシャープな画像を得られる外式フィルムを好んで使うプロが多かった。なお現在発売されているリバーサルフィルムはすべて内式となっている。
135フィルム
35mm幅のフィルムはもともと映画撮影用に考案されたもので、コダックが135フィルムとして製品化(のちに ISO 1007 として規格化)、やがてスチルにも転用された。フルフレームはスチルのハーフ判に対してのフルということになるが、映画撮影での一般的なフレームサイズはむしろハーフ判に近かったためダブルフレームと呼ばれることもある。
中判・大判
はっきりとした規定があるかは定かでないが、フィルムではライカ判よりも大きなブローニーフィルム(ロールフィルム)を使うカメラは中判、ブローニーよりも大きいシートフィルム(カットフィルム)を使うカメラは大判とされてきた。デジタルカメラではライカ判よりも大きいセンサーのカメラは中判と称されるが、今のところブローニーの最小フォーマットである645(6x4.5cm, ろくよんご)よりも大きなセンサーは製品化されておらず、当然大判(4 x 5inxh, しのご)に相当するセンサーを備えているものも存在しない。そんな大きさのセンサーじゃ歩留まりがえらいことになるし、そんな大型センサーに見合う分解能を持つレンズ設計のハードルや製造コストもとんでもないことになるし、画質だけでいえば現在のデジタルバックでも充分フィルムの大判に匹敵することを考えたらおよそ現実的じゃないのだろう。
カラーフィルターとベイヤー配列
もともとセンサーが測定できるのは入射光の強弱だけで単体では色の識別能力を持たず、光の三原色であるRGB(赤、緑、青)のフィルター(カラーフィルター)を透過させることで色を分離する方法が一般となっている。また人間の眼の分光感度は緑がピークとなっているため、RGBを均等に分布すると緑を弱く感じてしまう。そこでR:G:Bを1:2:1の比率とした4画素を最小単位として画像を構成する方法が考案された。これがベイヤー配列と呼ばれるもので、このままでは1000万画素でも得られるのは250万画素ぶんの情報となるが、実際に画像を復元する際には周辺の画素の情報も参考にし、4画素を4画素ぶんの解像度として扱えるようにしている(画素補完、デモザイクとも呼ぶ)。
画素補完は十分枯れた技術ではあるものの、それでも演算によって本来ないものを想像で埋めてるようなもので、ひとつの画素で三原色すべてを賄えない限り完全にリアルを再現するわけにはいかず、等倍鑑賞時の画像の精鋭度に影響してくる。2015年現在、1ピクセルフルカラーを実現しているのはシグマ Foveonのみ(同軸三層構造)だが、ソニーは単層で1ピクセルフルカラーを実現する新型センサーを開発中らしい。これが実現すると理論上は面積あたり対ベイヤー比で4倍の情報を得られることになる(Foveonは三層構造なので下のフィルターに行くほど入射光が減衰する)ほか、原理的に画素補完が不要なので解像力も向上する(これはFoveonで実証済み)。
わしがトリミング限界をターゲット解像度の長編比率2倍以上にしてるのも適当に思いついたのではなく、ちゃんとベイヤー配列から逆算して決めたのじゃあ!ということにしておいたほうが説得力がありそう。
LUT
Look Up Table。参照テーブル。あらかじめ計算した値を記録しておくことで処理負荷を軽減するための仕組みだが、映像関連では入力輝度に対する出力輝度のマッピングを意味する。一般に、8bitのLUTよりも16bitのLUTのほうが実際の色との差が少ない≒再現性が高いとされる。
ウェブと色空間、色深度
WCAG 2.0sRGB色空間内での相対輝度をそれぞれ8bitとしているほかHTMLやCSSなどの記述には16進トリプレット表記が採用されているが、W3Cは色空間や色深度に関して明確な規定はしていない(CSS3では従来のRGBに加えて色相 (hue)、彩度 (saturation)、輝度 (luminance) を基準としたHSL色空間も扱えるようになっている)。
どちらかというとJPEGやGIFなどの主流画像フォーマット、モニタやグラフィックボードなどの映像機器、そしてOSと表示環境側の制約でsRGBの8bitを推奨していたわけで、今後どうなるか注目したい。
忠実色と記憶色
字面で想像つくように、忠実色は実際の素材の色、記憶色は頭の中のイメージに沿った色。同じ写真でも忠実色を再現したものと記憶色のそれを比較すると、得てして記憶色のほうがキレイという答えが返ってくる。どちらを優先するかはその画像の使用目的次第で、優劣の問題ではない。
なお記憶色という概念が浸透したのは、1990年に発売された傑作リバーサルフィルム、フジクロームベルビア(RVP)の影響が大きい(コダックの凋落はデジタル時代到来もあるが、PKRに胡坐をかいていたせいでRVPに対抗できる新商品を投入できなかったこともあるのではないか)。
JPEGの次
JPEGの限界はとっくに知れ渡っておりその次を期待する声はずいぶん前から上がっているが、“その次”の時代を迎えるためには動画圧縮との兼ね合いが鍵となってくる。
現時点でもすでにJPEG 2000、JPEG XR、JPEG-LSなどWebPなど後継を狙うフォーマットがいくつか存在する。中でもJPEG 2000とJPEG XRは8bit以上の色深度を記録可能で可逆圧縮にも対応し、同画質での圧縮率も高いなどクオリティにおけるアドバンテージは十分である。
JPEG 2000の符号化に用いられる離散ウェーブレット変換(DWT )はモスキートノイズやブロックノイズが原理上発生しないことや画像サイズが大きければ大きいほど圧縮効率が向上するといった特徴を持つ反面、複雑な浮動小数点演算を必要とするためJPEGの離散コサイン変換(DCT)よりもはるかに処理負荷が高く、同画質への圧縮負荷がJPEGの数十倍にもなってしまう(DCTでも浮動小数点演算のオプションはあるが整数演算で得られる結果との精度の違いはほとんど誤差の範囲なので用いられるのは稀)。また計算量も対象によって大きく変化するため処理時間も読めない。こうした点が嫌われデジカメへの実装が敬遠されてきた(現在のウェーブレット変換は処理効率が改善されている)。
JPEG XRはマイクロソフトが2006年に発表したWindows Media Photo(のちにHD Photo)をベースに標準規格化したもので、ウェーブレットを重複双直交変換(LBT)とすることで処理負荷の軽減を図っている。さらに直交変換を前提としている特許を回避できるのもLBTの大きなメリット。マイクロソフトはJPEG XRの使用や実装に関する特許を放棄しているほか、ライブラリのjxrlibをBSDライセンスで公開している。JPEG 2000との比較では、低~中圧縮時の画質に優れ高圧縮時は劣る傾向にある。
一見するとデジカメの“その次”に近いのはJPEG 2000よりもJPEG XRに映るが、ここでスチルではなくムービーの動向に目をやると、MPEG-2やMPEG-4は一次圧縮した静止画をさらに時間軸の差分を二次圧縮するのが基本で一次圧縮にはJPEGが用いられているが、フルHDを超える4Kや8Kといった膨大な情報量ともなると一次圧縮をJPEGで行っている限り高い圧縮率は期待できない。つまり動画全体のファイルサイズを縮小するには一次圧縮を別のアルゴリズムに置き換える必要がある。
4K/8K市場の本格化は高圧縮コーデックの登場にかかっているが、“画像が大きければ大きいほど圧縮効率アップ”というJPEG 2000の特性は、理屈の上ではまさにこれからの時代にピッタリなのである。さらにJPEG 2000を採用した機器は民生用こそ存在しないが、医療や監視カメラなどの業務分野ではすでに製品化の実績がある。あとはH.264と同じで、ハードウェアエンコーダの登場次第ということになる(浮動小数点演算チップを搭載、という前提はつくが)。
スチルカメラとムービーカメラでは静止画の位置づけが異なるので、ムービー向けセンサーをスチルに、あるいはその逆といった流用はどちらかの機能や性能、利便性に制約を生じていた。が、ここ最近はスチルのムービー化ともいうべき傾向が強まっている。「狙ったシーンを捉える」から「連続した映像のコマを抜き出す」スタイルへの変化といってもよい。感情的には「それは写真といってよいのか」という抵抗があるものの、クオリティはすでに水準を満たしており、ターニングポイントはすぐそこまで迫っているのかもしれない。
ピクセル等倍鑑賞
諸悪の根源モニター上で元画像の原寸サイズで表示すること。たいてい画面からはみ出し一部だけ表示される。逆はたぶん全画面表示で、これが本来の鑑賞サイズ。ちゃんとピントが合ってるかとかレンズの性能チェックなんかは等倍表示する必要がある。デジカメの高画素化で等倍表示でチェックするのは当たり前になったけど、トリミングで等倍切り出しを日常的に必要としている人が多いわけでもあるまいに、写真を鑑賞することと鑑定することをごっちゃにする人がずいぶん増えてしまったように思う(これは出来上がった写真の良し悪しよりも断片的な性能の優劣を語るほうが容易い、ということでもあるがそれはもはや議論のための議論ではないのかと)。等倍鑑賞時の画質に固執するのもいいけど肝心の画像全体の印象や伝わる雰囲気といったものがおろそかになってねーか?とたまに自問自答してみる。てか誰だよ最初に等倍“鑑賞”って呼んだ奴は。等倍鑑定とか等倍チェックでよかったのに。
まあ、等倍で確認して初めて気づく良さだとか新しい着眼点なんてのもあるので一概に否定する気はないんだけど。あと4K8Kモニタが普通になればむしろ等倍全体表示での鑑賞がデフォルトになってもおかしくない(その頃にはさらに高画素化してるのかもしれんけどさ)。現在の等倍鑑賞に関する議論は肯定も否定も部分的で全体鑑賞サイズが抜け落ちたままヒートアップしてる印象があるし、過渡期のものなのかも。
なお等倍鑑賞という概念はデジタルならではのものでフィルム時代には存在しなかった。フィルムで等倍鑑賞に相当する概念は、どのくらいのプリントサイズまで鑑賞に堪えられるかを示す引き伸ばし耐性がもっとも近いか。等倍鑑賞や引き伸ばし耐性は許容錯乱円と関係が深い。
回折
光が障害物の背後に回りこむ減少を回折と呼ぶ。写真撮影においては絞りを絞ることで被写界深度が深くなりピントの合う範囲が広くなるが、絞りすぎると今度は回折による光の影響を受け、解像度がかえって低下してしまう。
レンズは一般的に、絞り開放の状態では周辺部の画質が低下する傾向にあり、開放より1~2段からF8~F11くらいがレンズの性能をもっとも引き出せる範囲とされる。ちなみにフォトグラフィ集団及びカメラバッグメーカーにF.64ってのがあるけど、大判カメラ時代はあんまり回折が気にならなかったんだろか。