人工知能に関する勉強会メモ

こちらの勉強会に参加してきたので最初の2講義分だがそのとき取ったメモを上げておく。完全にメモ状態なのでわかりづらいところ多いが。。
【520席増枠】第一回メタップス人工知能セミナー: 「人工知能が変革するビッグデータ解析」 - metaps | Doorkeeper

SNSとIoT(Internet of Things)が切り拓く,ビッグデータ2.0の世界

ウェアラブルからインプランタブルへ
 コンタクトレンズとか目玉につけるとか、身に付けるだけでなく一体化
 cf. いま注目の「ウェアラブル」から少し先にある未来型デバイス | 希望は天上にあり


BMI(Brain Machine Interface)
 脳波によってマシンを動かすなど

smart grid
 電力網とインターネッ卜網の融合
 IoTを強力に推し進めることになる
2020年までにさまざまな家電がインターネッ卜につながることになる

2018までに80億台のIOTデバイスが普及するという予測もある
 台数は当たらなくともかなり急激に増加するのは間違いない
 セキュリティ関係の問題も一気に噴出しそう(個人の感想)
 cf. 「モノのインターネットとは?」 〜IoTの動向と課題〜 後編 | ビッグデータマガジン


IOTの2010年代=インターネッ卜の1990年代

IOTのアプリの今後
 1.電力見える化
 2.DR(Demand Responsive)
 3.見守り?
 4.???(まだわかっていない)

ビッグデータ1.0
 構文解析
 集めたデータを統計分析して役立つ情報を抽出する

ビッグデータ1.5
 Hadoopなどのツールを使って処理ほどの大きなデータを使う
 SNS、IOTなどから来る膨大なデータ

ビッグデータ2.0
 意味解析を行う段階
 データから抽象的な意味を見つけ出す(特徴量の抽出)

Deep Learningの先にある産業の姿

将棋の例
第3次ブーム時の素性は40個(すべてのコマの数)
現在使われる素性は数百万(さまざまなコマの関係性)
どの素性を重要なものとして扱うかが重要

フレーム問題(例外をどう扱うか)
シンボルグラウンディング(記号と意味の結び付)

今までは 現実世界のどこに注目すべきかという部分は人間が設計していたがDeep Learningによってそれが変わった。

Deep Learning
 入力と出力に同じものを与える
 途中に隠れ層として情報量の少ない層を用意する
 すると隠れ層には判別するのに重要な情報が濃度を高めて表れることになる
 この隠れ層を入力として次の層に与えるとさらに濃縮した情報が次の隠れ層に集まる
 これを繰り返すことでどんどん重要部分の値が抽出されていく
 (重要部分の抽出=特徴量の抽出)

Deep Learningでやっている事自体はかなり前から主張されてきたもの
だが、実際に形になったのは最近
なぜ?
 実現するには大きなマシンパワーが必要だった
 数百台のコンピュータを繋げて並列処理させて数千時間学習させることで猫の認識など実現した

face clustring
googleがだした論文
 99.63%で同一人物の顔を認識
 間違えた写真は人間が見ても間違えるレベルの似ているもの

現在の人工知能はインターネットの1995年
 人工知能でのgoogleは?Amazonは?Facebookは?

異常検知はかなりできるようになってきている
(異常検知は特徴量を見つけてその変化を検知する必要があるため従来の手法だと難しかった)

レゴを試行錯誤しながら組み立てるロボットをバークレーが開発
 DeepMindが持っていたアルゴリズムをロボットに応用しただけなので特に新しいことはしてないが、実際にこのようなことができるロボットは開発されたということ

今回の講演者さんの出した本があるので詳しく知りたいならこちらの本が読むのがよい。とてもわかりやすくまとまっていた。