私たち人間は、情報を目や耳や鼻や口や手や足や指という感覚器官を介して受け取り、通常は脳を介してその情報を咀嚼している。
テレビが登場するまでは、視覚情報の中心は「読むこと」だったが、テレビが登場し視覚情報は全情報の80%を占めると言わせる拡大を見せた。
そしてパソコンとインターネットの普及、その後のスマホの普及で依存度はさらに増し、日常生活のほとんどが視覚情報に依存するようになっているはずだ。
このことは、視覚以外の感覚器官の活用能力の劣化につながっているかもしれないが、視覚情報以外が重要になるのは緊急時やピンチの時になることが多いがそれはまた別の機会に触れたい。
今日は、視覚情報にテーマを絞ってみたい。
クルマからメガネまであらゆるものにモニターが付属するようになる。現状とそれほど大きな違いはないように思えるかもしれないが、実際は大きく異なる。なぜなら技術的にはどのモニターでも同じことができ、消費者は用途や利便性によって好きなデヴァイスを選ぶことが可能になるからだ。
あらゆるものの「テレビ化」はすでに日常に溢れている。
いろいろなものに、操作パネルやディスプレイが付いている。
「テレビ化」すると言うよりは、「ディスプレイ化」と呼んだ方が相応しそうだ。
そんな、多くの視覚情報は「百聞は一見に如かず」のようでありながらも感情で処理している。
研究を行ったエリカ・ジーゲル氏は「私たちは、受動的に情報を検知して反応しているのではなく、建築家のように体験を作り出す、つまりどのように世界を認識するかを自分で構築しています。感情は私たちが作り出す体験を決定する重要な要素です」「喜びや不快を感じると、私たちは世界を違ったように認識します」と話しています。
テクノロジーの発達はAIを使うことで、人間が取り扱うと感情で処理する情報を、感情的にならずに処理することを可能にし始めている。
私たちも恩恵を受けているのだが、その存在が私たちの知らないところにあるものの一部を上げると、
人工知能を使ってどんなことができるの? 「東京サマーランド」も導入した監視カメラ画像解析サービスを見てきた - ITmedia NEWS https://t.co/Y78a8TuLu0 pic.twitter.com/2HaWzgecge
— ITmedia NEWS (@itmedia_news) April 18, 2017
センサーカメラと人工知能で飛び込みしようとする人を見つけ、駅員のスマホへ通知するシステム。これは素晴らしい技術革新。早く東武東上線の各駅に設置して欲しい。/「ホームで飛び込もうとする人」を検知し事故を防ぐ人工知能ロボ https://t.co/sex0LRTbS6 pic.twitter.com/HcukgXteDQ
— らるごどらいぶ@愛妻家&愛犬家 (@largo_drive) June 5, 2017
防犯カメラとは別に店舗内に常設カメラを設置し、撮影した顧客の顔画像を人工知能(AI)で分析して集積し、売り上げの増加に役立てる企業が増加している。顔の画像は個人情報にあたるが。個人情報保護の専門家からは危惧する声もあがる。https://t.co/MgcR4Ile8W
— Alfons López Tena #FBPE (@alfonslopeztena) August 26, 2018
定点カメラの映像などから路面の雪の状態をリアルタイムに認識できる「AI(人工知能)道路管理支援システム」をウェザーニュースが開発した。凍結防止剤を散布する雪氷作業の効率化、交通事故の防止、自動運転技術の向上などにつなげたい考え。 https://t.co/mJ5cLHeVr8
— エデュテックパートナーズ (@edutech_partnar) February 11, 2019
よく耳にするAIだが、身近な生活のどこにあるのだろうか?
AIの話を聞くときの多くは、開発者や研究者の取り組みの話であることが多いのでどこか遠くの話に感じてしまう。
私たちがAIのお世話になるとすればユーザーとしてだろうが、一体どこに存在してるのだろうか?
わたしもよく分かっていなかったので、自分のためにもざっくりと整理してみた。
AIとは、指し示す範囲がピンからキリまであるが、デジタルに情報を処理するデバイスに搭載されていると思えば良さそうだ。
デジカメやパソコンやスマホおよびその周辺機器で賢そうなものには全て搭載されていると思っておけば間違いないだろう。
しかし、その処理能力はピンからキリであることと、その能力を活かすも殺すもOS(オペレーティングシステム)次第なのだ。
最近、スマホの一部が極端に高性能化してるのに気付いてる人は多いだろうが、そのほとんどがAIの積極活用を意図してるからだ。
逆に言うと、差別化できる要素がそこしか無いのかもしれない。
次の記事はAppleの事例だが、HuaweiやGoogleなどトップモデルに意欲的に取り組む企業に共通してる意識だろう。
アップルはグラフィックの処理能力を集中的に強化することにした。ニューラルエンジンの性能を上げ、人工知能(AI)を使ってできることを増やしたのだ。A11では1秒当たりの処理数が6,000億だったが、A12ではこれが5兆になっている。
現在のところAppleは、このハイスペックを活かすOSやアプリがまだ無いが、
今回の情報は、Macお宝鑑定団のダンボ氏がYouTuberのdrikin氏の動画にて語ったものです。上の動画の46分50秒にて、ダンボ氏は「iOS 13はiPad Pro向け、iPad向け、iPhone向けにそれぞれ別々の機能を搭載する」と語っていますね。
今後はデバイス毎の特徴に合わせてOSの特性を変えるという動きになりそうだが、これもAIの活かしどころの模索を意味してるような気がする。
そして現在、上記のツイートの引用事例でも分かるように、高度なAIの活かしどころが集中してるのがカメラなのだ。
現在は、人間の感情と寄り添うような高度化を見せているが、これからは感情の持つ曖昧さを排除する方向での発達を見せるはずだ。
現在は、写真や映像そのものをレンズに頼らずに高度に撮影するために活かされ始めているが、やがてこの画像処理に複数のセンサーが組み合わされ、視覚に頼ってるだけでは発見できないものに気付くような仕掛けがなされると思っている。
高度に発達するであろうカメラは、視覚情報の二極化を進めるだろう。
感情を伴ったアナログ情報と、感情を排したデジタル情報、しかしどちらであっても人間が咀嚼すると情報には感情が入り込む。
わたしの体験だが、きれいな風景を見て写真を撮ってみると、撮った写真はちっとも良いと思えないことが良くある、腕が悪いのか機材が悪いのか、腕が良くても機材がイマイチならば撮れる写真はイマイチだろうし、機材が良くても腕が悪ければやっぱりイマイチのはずだ。
腕の悪さに起因していたことは、AIを伴う高性能化で解決するようになるのかもしれない。
ただ風景を撮るだけでも差が付くとすれば、失敗が許されない状況ではさらに差が付くだろう。
高性能なデバイスが身近にあるか無いか、視覚情報に関しても格差が生まれて行くのだろう。