daily life

視覚障害とITガジェット、ChatGPT等等について

12月 30, 2023

視覚障害とITガジェット、ChatGPT等等について

※同様の内容について、Spotifyにおいても発信しております(日本語のみ)。

少し個人的な話となりますが、先日、急性の目の病気で突然視界が曇りだし、また眩しさがダメになるという症状が出て、今はだいぶ視力も回復し、見えやすくなったのですが、周りが見えにくい時に救われたのが、iPhoneなどのITガジェットに搭載されているアクセシビリティ機能でした。

視界が曇ることで手元の文字が見えにくくなり、また眩しさがダメになることで、白い紙などに書かれた文字も非常に醜くなったのですが、ITガジェットのアクセシビリティ機能を使えば、たとえばダークモードにすれば背景を黒、そして文字を白にできるので、眩しさがダメな場合でも文字を読むことができ、また、私の場合、iPhoneのアクセシビリティ機能で、文字を大きく太くしたり、拡大鏡などを使うことで、格段に文字が読みやすくなりました。

パソコンでの作業においても、同様にアクセシビリティを使うことで、かなりのものはダークモードで見ることができ、色の判別は難しくなりますが、紙媒体だけでは到底読めなくなったであろう文書も引き続き読むことができました。

そこでふと、視覚障害と昨今話題のChatGPTの関係について調べてみると、やはりChatGPTは視覚障害の方にとっても大きな変革をもたらす役割をしているようでした。

例えば、Be My Eyesというアプリは、視覚障害者や低視力者をサポートするアプリですが、「ChatGPT」などを手掛けるOpenAIの言語モデル「GPT-4」が搭載されたことにより、AIが画像からテキストを読み取ることで、ユーザーはその画像の情報を瞬時に得ることができるようになったとのことです。

また、従来のデジタルアシスタントに比べ、より深いレベルで思考し質問に答えてくれるとのこと、たとえば、冷蔵庫の中の写真を送ると、何が入っているかという情報だけではなく、その材料で何が作れるかを推定、分析をし、そのレシピを提示できるようになったとのことです。

なお、AIでは回答できない場合は、自動的にボランティアに接続し、サポートを受けることができるということです。

また、高専発ベンチャー企業であるTAKAO AI のエンジンは、入力された画像/文書データ、またWebページを独自開発のシステムによって解析し、全自動で点字や、音声読み上げに対応したテキスト等に変換できるエンジンです。

先日公開された試用サイトでは、最近公開され話題となっている米OpenAI社のLLM(大規模言語モデル) 「gpt-3.5-turbo」の技術を追加で導入し、解析エンジンと組み合わせることで、

  • ドキュメントの中に散らばった情報をトピックごとに整理し、文書を構造化
  • 音声読み上げ・点字読み上げを意識し、より読みやすくなったテキストの生成

を実現したとのことです。

ちなみにChatGPTに聞いてみたところ、2022年現在では情報を持ち合わせていないとの回答でした。

おそらくChatGPTに音声返答と画像認識機能が搭載されたのが2023年のことになるので、まだ情報が反映されていなかったのか、私の聞き方が悪かったのかもしれません。

そして最後に紹介するのは、ITガジェットからは少し離れて、まほらノートという、発達障害当事者の方の声をもとに作られた、光の反射を抑えて目に優しく、識別しやすい枠線がひかれ、シンプルなデザインのノートです。

まほらノート

今まで述べてきたように、私の場合も眩しさがだめになってから、一般的な白が背景の紙に文字を書いたり読んだりすることが少し辛くなり、そんな時に出会ったのがこのノートでした。

実際使ってみると、なるほど普通の白い紙のノートより、眩しさが軽減され、とても使いやすいと個人的には感じました。

以上、今回は、視覚障害とITガジェット、ChatGPTについて、お話をさせていただきました。

参考サイト:

視覚障害者とボランティアをつなぐアプリ「Be My Eyes」に言語モデル「GPT-4」搭載

高専発ベンチャー企業 TAKAO AI、OpenAI社/ChatGPTの技術を用いた「ドキュメントの視覚障害者対応」エンジンの試用サイトを公開