
AppleがWWDCで発表した最も興味深い点の一つは、開発者がアプリに機械学習機能を組み込むことができるように設計された新しいフレームワークでした。Core MLで学習できる機能の一つは、現実世界のオブジェクトをリアルタイムで識別し、キャプションを付与することです。Appleは、1000個のオブジェクトで学習させたサンプルアプリでこれをデモしました…
開発者のポール・ハッダッド氏は、この機能をテストした面白いツイートを投稿しました。録画された画面では、iPhoneがドライバー、キーボード、段ボール箱を認識している様子が映っていましたが、ある見慣れた物体、つまり第一世代のMac Proは認識していないようでした。
Core MLフレームワークは、これをスピーカーとして認識しましたが、ある特定の角度から、スペースヒーターとして認識しました。録音は以下でご覧いただけます。
面白い話ではありますが、私が得たのは、他のオブジェクトに対するこのシステムの素晴らしい仕事ぶりでした。開発者たちがこの種の機能を使ってどんなことをするのか、とても興味深いです。もちろん、Macのモデルを認識できるようにシステムをトレーニングすることも可能でしょう。
https://twitter.com/tapbot_paul/status/872895918353330176
TNW経由
vlowder.com を Google ニュース フィードに追加します。
FTC: 収益を生み出す自動アフィリエイトリンクを使用しています。詳細はこちら。