AIスマートグラスをクラウドファンディング経由で衝動買い
昨年、国内最大級のクラウドファンディングサイト「Makuake」でプレッジを募集していたスマートグラス「Halliday Smart Glasses」に申し込み、心待ちにしていた製品パッケージを受け取ったのは今年2月末のことだった。
届いたパッケージや同時に送られてきた封書はなかなかにオシャレな雰囲気で、開封する際の期待感を絶妙に高揚させるものだった。昨今、筆者の周囲には先行するガジェットが溢れており、実際に製品に触れたのは3月第1週の末だったが、それまでは「未来をかける」高揚感に包まれていたのである。
さて、ここで昨今のAI系スマートグラスの勢力図を整理しておこう。映画を大画面で楽しむためのAV系を除けば、現在の主流は大きく2つに分類できる。1つは超小型ディスプレイで視界に情報を出す「UMD(Ultra Micro Display)タイプ」。そしてもう1つは、ディスプレイを持たず音声のみでやり取りする「音声応答タイプ」だ。
今回のHallidayは前者であり、筆者が購入した2万円程度の以前のモデル(Hey Cyan)は後者に属する。Hallidayは視覚と音声の双方を統合し、より高度なAI体験を目指した意欲作なのである。まずは本体と、オプションのリモートリングを充電することから始めた。
調整は手間が掛かったがなんとかなった
今回は本体以外に、メガネのツルに触れることなく指先で制御できるリモートリングもセットで購入した。スペック上、このデバイスはHUD(ヘッドアップディスプレイ)による情報の視覚化、リアルタイム翻訳、録音、チート機能そして目玉であるAIとの対話(リアクティブおよびプロアクティブモード)をうたっている。導入案内に従って既定のアプリを筆者のメインスマホであるGalaxy Z Fold7に導入し、Bluetoothペアリングを済ませた。
次は小さなHUDの調整だ。アプリ上での角度微調整設定に先立ち、物理的な左右の位置調整、上下角調整、回転によるフォーカス合わせが求められる。この一連の作業は、自分の視覚特性に合わせて追い込んでいく必要があり、お世辞にも手軽とは言えない。
しかし、実際の目で確認しながらミリ単位以下の微調整を指先で繰り返すプロセスは、面倒ではあるがなんとかなるレベルであり、ガジェット好きとしてはむしろ「使いこなしている」実感が持てる楽しい時間でもあった。
ただ、完璧にフィットさせたとしても、現在の多くのHUDスマートグラスと同じく「少し垂れ眼鏡+上目遣い」のスタイルは避けられず、客観的に見て第三者からは“変な人”に見えてしまう可能性がある。AIとの対話をよりスマートに実現できるスマホやスマートウォッチとの格差は、依然としてあまりに大きすぎる。
本来ならここで、HUDに映し出されたグリーンの画面をお見せしたいところだが、残念ながら本機にはキャプチャー機能の類はない。Even Realities G1のようにサポートしているモデルもあるが、Hallidayの投影方式は外部に画像を引き出す術がなく、その「孤独な視界」を共有できないもどかしさが、このデバイスの閉鎖性を象徴しているようでもある。
もっとも、これがいいか悪いかは超微妙ではあるが、本人にしか見えないという点では「究極の機密管理」だとも言える。筆者が今回プレッジした目的の9割はAIとの会話だ。しかし、期待の「リアクティブモード」は使用初日から筆者を絶望させた。グリーンのHUD表示に「AIを起動しています」というメッセージが出た後は、いつまでたっても起動は1~10%で停滞したまま。初日は音声認識のフェーズにすらたどり着けなかった。
























