違う見方

新しい時代の始まり。複数の視点を持つことで、情報過多でややこしい現代をシンプルに捉えるための備忘録的ブログ。考え方は常に変化します。

『視覚情報』の格差が拡がる!?

私たち人間は、情報を目や耳や鼻や口や手や足や指という感覚器官を介して受け取り、通常は脳を介してその情報を咀嚼している。

 

テレビが登場するまでは、視覚情報の中心は「読むこと」だったが、テレビが登場し視覚情報は全情報の80%を占めると言わせる拡大を見せた。

 

そしてパソコンとインターネットの普及、その後のスマホの普及で依存度はさらに増し、日常生活のほとんどが視覚情報に依存するようになっているはずだ。

 

このことは、視覚以外の感覚器官の活用能力の劣化につながっているかもしれないが、視覚情報以外が重要になるのは緊急時やピンチの時になることが多いがそれはまた別の機会に触れたい。

 

今日は、視覚情報にテーマを絞ってみたい。

 

 

あらゆるデヴァイスが「テレビ化」する未来が見えてきた

クルマからメガネまであらゆるものにモニターが付属するようになる。現状とそれほど大きな違いはないように思えるかもしれないが、実際は大きく異なる。なぜなら技術的にはどのモニターでも同じことができ、消費者は用途や利便性によって好きなデヴァイスを選ぶことが可能になるからだ。

 

あらゆるものの「テレビ化」はすでに日常に溢れている。

 

いろいろなものに、操作パネルやディスプレイが付いている。

 

「テレビ化」すると言うよりは、「ディスプレイ化」と呼んだ方が相応しそうだ。

 

そんな、多くの視覚情報は「百聞は一見に如かず」のようでありながらも感情で処理している。

 

目に見える情報は感情によってコントロールされている

研究を行ったエリカ・ジーゲル氏は「私たちは、受動的に情報を検知して反応しているのではなく、建築家のように体験を作り出す、つまりどのように世界を認識するかを自分で構築しています。感情は私たちが作り出す体験を決定する重要な要素です」「喜びや不快を感じると、私たちは世界を違ったように認識します」と話しています。

 

 

テクノロジーの発達はAIを使うことで、人間が取り扱うと感情で処理する情報を、感情的にならずに処理することを可能にし始めている。

 

私たちも恩恵を受けているのだが、その存在が私たちの知らないところにあるものの一部を上げると、

 

 

 

 

 

よく耳にするAIだが、身近な生活のどこにあるのだろうか?

 

AIの話を聞くときの多くは、開発者や研究者の取り組みの話であることが多いのでどこか遠くの話に感じてしまう。

 

私たちがAIのお世話になるとすればユーザーとしてだろうが、一体どこに存在してるのだろうか?

 

わたしもよく分かっていなかったので、自分のためにもざっくりと整理してみた。

 

AIとは、指し示す範囲がピンからキリまであるが、デジタルに情報を処理するデバイスに搭載されていると思えば良さそうだ。

 

デジカメやパソコンやスマホおよびその周辺機器で賢そうなものには全て搭載されていると思っておけば間違いないだろう。

 

しかし、その処理能力はピンからキリであることと、その能力を活かすも殺すもOS(オペレーティングシステム)次第なのだ。

 

最近、スマホの一部が極端に高性能化してるのに気付いてる人は多いだろうが、そのほとんどがAIの積極活用を意図してるからだ。

 

逆に言うと、差別化できる要素がそこしか無いのかもしれない。

 

次の記事はAppleの事例だが、HuaweiやGoogleなどトップモデルに意欲的に取り組む企業に共通してる意識だろう。

 

iPhoneを進化させた「AIチップ」、その開発の舞台裏

アップルはグラフィックの処理能力を集中的に強化することにした。ニューラルエンジンの性能を上げ、人工知能AI)を使ってできることを増やしたのだ。A11では1秒当たりの処理数が6,000億だったが、A12ではこれが5兆になっている。

 

現在のところAppleは、このハイスペックを活かすOSやアプリがまだ無いが、

 

iOS 13はiPad Pro向け専用機能を搭載する?

今回の情報は、Macお宝鑑定団のダンボ氏がYouTuberのdrikin氏の動画にて語ったものです。上の動画の46分50秒にて、ダンボ氏は「iOS 13はiPad Pro向け、iPad向け、iPhone向けにそれぞれ別々の機能を搭載する」と語っていますね。

 

 

今後はデバイス毎の特徴に合わせてOSの特性を変えるという動きになりそうだが、これもAIの活かしどころの模索を意味してるような気がする。

 

 

 

そして現在、上記のツイートの引用事例でも分かるように、高度なAIの活かしどころが集中してるのがカメラなのだ。

 

現在は、人間の感情と寄り添うような高度化を見せているが、これからは感情の持つ曖昧さを排除する方向での発達を見せるはずだ。

 

現在は、写真や映像そのものをレンズに頼らずに高度に撮影するために活かされ始めているが、やがてこの画像処理に複数のセンサーが組み合わされ、視覚に頼ってるだけでは発見できないものに気付くような仕掛けがなされると思っている。

 

高度に発達するであろうカメラは、視覚情報の二極化を進めるだろう。

 

感情を伴ったアナログ情報と、感情を排したデジタル情報、しかしどちらであっても人間が咀嚼すると情報には感情が入り込む。

 

わたしの体験だが、きれいな風景を見て写真を撮ってみると、撮った写真はちっとも良いと思えないことが良くある、腕が悪いのか機材が悪いのか、腕が良くても機材がイマイチならば撮れる写真はイマイチだろうし、機材が良くても腕が悪ければやっぱりイマイチのはずだ。

 

腕の悪さに起因していたことは、AIを伴う高性能化で解決するようになるのかもしれない。

 

ただ風景を撮るだけでも差が付くとすれば、失敗が許されない状況ではさらに差が付くだろう。

 

 

高性能なデバイスが身近にあるか無いか、視覚情報に関しても格差が生まれて行くのだろう。