AIが人間の脳活動の“解読”に乗り出している――。年明け早々に京都大学の研究チームが発表した論文は、今なお世界中から注目を集め各種のメディアが話題にしている。
その研究の内容は、見ている画像それ自体をその当人の脳活動の情報からAIが再構成するという驚くべき研究だ。つまり、脳活動からどんなものを見ているのかがわかるのだ。
きわめて複雑な人間の脳活動を比較的容易にモニターできるfMRI(磁気共鳴機能画像法)の登場によって、昨今さまざまな研究が盛んに行われるようになっている。
こうした研究により、人間の特定の感情や行動が、脳のどの部位の活動と結びついているのかが徐々に明らかになってきているのだが、そうはいってもまだまだ脳活動の全容解明には程遠いと言えるだろう。
そこで近年、目覚ましい進化を遂げているAI(人工知能)に脳活動の“解読”をやらせてみるアイディアが出てくるのも自然な流れだろう。
京都大学の研究チームは、AIにfMRIでモニターした人間の脳活動の動きを機械学習させた。
すると、驚くべきことにAIは人間が見ている画像を脳活動の情報をもとに再構築して描写できることがわかってきたのだ。
学術論文サーバ「Biorxiv」で今年1月に発表された「Deep image reconstruction from human brain activity」と題された研究論文では、人間が見ている画像を、fMRIで測定した脳活動の情報をAIが“解読”して画像を再現できることが示されている。
個別に把握するには複雑すぎる「脳活動だが、膨大な脳活動情報を機械学習したAIは、視覚情報と脳活動のリンクを暫定的ではあるもののいくつも見つけ出していることになる。
研究に使われた画像はフクロウやカメレオン、トラなどの生物の画像や、旅客機やビールジョッキといった物体からアルファベットの文字までさまざまだ。
そして直接画像を見ないで心の中で思い浮かべた絵についても、AIは“解読”して画像化することに成功している。
いわばAIによる“読心術”がある部分ではもはや現実のものになっているのだ。
今後さらにこのAIが機械学習を続けていけば、再現できる絵はさらに正確で詳細なものになるだろう。
いかそー
http://tocana.jp/2018/03/post_16316_entry.html
(出典 tocana.jp)
(出典 Youtube)
つか、気持ち悪いな
マジなの?
もう止めろ
これ以上は要らん
AIは地球を救う
科捜研の女やCSIシリーズに早く登場してほしいな
物の見た目や触感って全部脳が決めてるんだから、100人100通りの見え方でもおかしくないんだよな
前からイケメンの基準が人によって違うし、他人にはどう見えてるのか興味があった
もしかしたら、リンゴとかでも、他人にはパイナップルとかに見えてて、それをリンゴと言ってたり
>>11
写真写りの差くらいはありそう
>>11
おれも昔から同じ事を考えてる。
>>11
あいつの見てる黄色は俺からしたら赤なのかなとかよく考える
>>11
クオリアだっけか
>>11
りんごがパイナップルに見えててもスケッチしたら他者から見てりんごに見える絵を書くはずだしな…
犯罪捜査に役立ちそうだな
夢の映像化が将来的には可能になりそうなんだな
最近のAIという言葉の乱用は目に余る
人工無脳やただのプログラムすらAIと呼ぶ始末
10年後とかどうなってるんかな…
夢を録画できる時代まであとちょっとか
データ→脳が出来れば盲目の人の役に立つな
>>57
そっちの方向が可能だと伝統工芸の技術継承とかでも役に立ちそうだな
早くしろ
今の100歳以上の記憶は貴重だから
妄想や錯覚も映像にできんのか恐ろしいな
AIやばすぎ、マジでターミネーター一歩手前ってかんじじゃん
コメント
コメント一覧 (1)
コメントする