WWDC23 が待ちきれないですか? Apple も、ほぼ確実に iOS 17、iPadOS 17、macOS 14 に搭載される新機能の発表をすでに始めているため、どうやらそれもできないようです。
これらは障害のある人を対象としており、ライブ スピーチやパーソナル ボイスが含まれます。 これらにより、言語障害のある人も、ユーザーと同じように聞こえる合成音声で会話に参加できるようになります。
iOS 17 は、Assistive Access、Live Speech、Personal Voice を提供します
「今日、私たちはテクノロジーづくりの長い歴史に基づいて構築された素晴らしい新機能を共有できることを嬉しく思います」 アクセスしやすく、誰もが自分の好きなことを創作し、コミュニケーションし、行う機会を得ることができます」とティム・クック氏は述べています。 アップルのCEO。
同社は火曜日、認知、視覚、聴覚、モビリティのアクセシビリティに関する今後の機能のプレビューを行った。
Apple は、話すことができない人、または時間の経過とともに言葉を失った人のために Live Speech を作成しました。 iPhone、iPad、Mac ユーザーは、言いたいことを入力して、それを読み上げることができます。 また、よく使用されるフェーズを保存し、ボタンを押すだけで利用できるようになります。
広める能力を失いつつある人は、個人の声を作成できます。 トレーニングでは、機械学習を使用してユーザーのような声を作成します。
Assistive Access は、iOS および iPadOS のユーザー インターフェイスを簡素化します。 新しい UI では、グリッドベースのレイアウトでハイ コントラストのボタンと大きなテキスト ラベルが提供されます。 または、テキストを好むユーザーは、代わりに行ベースのレイアウトを使用できます。
iOS および iPadOS の拡大鏡アプリに検出モードとポイント アンド スピークが追加されました。 これは、カメラと LiDAR スキャナーを使用して、ユーザーが向けたテキスト ラベルを検出し、読み上げます。 この機能は、視覚障害を持つユーザーが複数のテキスト ラベルを持つ物理オブジェクトを操作できるようにすることを目的としています。
「これらの画期的な機能は、障害者コミュニティのメンバーからのフィードバックをあらゆる段階で取り入れて設計されており、多様な人々をサポートします。 Apple のグローバル アクセシビリティ ポリシー担当シニア ディレクター、サラ ヘリンガー氏は次のように述べています。 イニシアチブ。
近日公開
これらの発表は、次の時期に合わせて行われました。 世界アクセシビリティ啓発デー 5月18日木曜日、デビューが近づいているからではありません。
Appleは具体的に導入するとは言っていない iOS17、iPadOS 17 および macOS 14 ですが、タイミングは適切です - これらの新しいオペレーティング システムのアップグレードは発表される予定です 6月のWWDC23にて そして初秋に一般公開されます。