Google I/O 2018のKeynoteもペタペタします。
Keynote
1つ目のトピックはGoogle AI。例としてヘルスケアですね。網膜画像からさまざまなリスクを機械学習させたモデルから判断。
アクセスビリティ。最初は二人が同時にしゃべっている音声からそれぞれ分離してテキストに起こしたり識別する。モールス信号での入力もサポート。
With Morse code and machine learning working together to support assistive text entry, we've added a new and access… twitter.com/i/web/status/9…
—
(@Google) May 08, 2018
GMailではタイプした文章から判断して文章自動補完したり。写真ではFor youなアクションと人の判別はもちろんカラーを抜いたり、OCRしたり、白黒をカラーにしたり。
次はデバイス周り。最初は自然な会話と視覚補助。
自然な会話では会話を継続してできるように。マルチアクションということで1つの文章で2つの要求があるときに分離してちゃんと判断。
これは写真たてかな。スマート写真たて?
それからGoogleアシスタント。今年はピザじゃなくてスタバを注文。全部音声で。
次は視覚補助。Google Maps内のナビゲーションでGoogleアシスタントとか。
自然な会話。音声で予約してって伝えるとGoogleアシスタントが電話して店員と会話して予約まで!時間の調整までOK。都合がつかなかったらキャンセル(実行しない)までしてくれる。ちゃんと文脈を理解して継続的に会話できてる。
次はAndorid。Andorid Pのアナウンスですね。バッテリー問題は大変そうだ。日光下とかでも見やすくなるようにブライトネスもAdaptiveに。
App Actrionsも進化。
次の話題はML Kit。ニューラルネットワークAPIはiOSも視野に。
操作パネル周り。下に寄せるデザインに。切り替え操作もだいぶ楽に?
ダッシュボードとか通知周り。裏返して非通知に。Wind Downでグレースケールにしたり。
次はGoogle Maps。
カメラを使ってAR表示で案内とか。
Google Lens。カメラで見てる中のテキストを選択したりGoogleアシスタントと連携したり。似てるものを検索したり。写ってるものすべて認識させてる感じかな。ポスター見ると対応する動画や音楽が流れたり。
次は自動運転関連。WAYMOですね。深層学習ばりばりです。交差点に進入してくる車を予測してスピード落としたり。雪道でもOK。
という感じで盛沢山でしたが音声認識とAI(Googleアシスタント)の進化、深層学習の成果がバリバリ活かされてるのがよくわかるイベントでした。