اپل امروز مجموعه ای از ویژگی های جدید را برای بهبود دسترسی شناختی، بینایی و گفتار پیش نمایش کرد. این ابزارها قرار است اواخر سال جاری بر روی آیفون، آیپد و مک وارد شوند. اپل که یک رهبر تثبیت شده در دسترسی به فناوری اصلی است، تأکید می کند که این ابزارها با بازخورد جوامع معلول ساخته شده اند.
Assistive Access که به زودی برای iOS و iPadOS عرضه می شود، برای افراد دارای ناتوانی های شناختی طراحی شده است. دسترسی کمکی رابط آیفون و آیپد را سادهتر میکند، بهویژه بر آسانتر کردن صحبت با عزیزان، اشتراکگذاری عکسها و گوش دادن به موسیقی تمرکز میکند. برای مثال، برنامه های Phone و FaceTime در یک برنامه ادغام شده اند.
طراحی همچنین با ترکیب آیکون های بزرگ، کنتراست افزایش یافته و برچسب های متنی واضح تر برای ساده تر کردن صفحه نمایش قابل هضم تر می شود. با این حال، کاربر میتواند این ویژگیهای بصری را مطابق میل خود سفارشی کند، و این تنظیمات بر روی هر برنامهای که با دسترسی کمکی سازگار است، اعمال میشود.
به عنوان بخشی از ابزار موجود ذره بین، کاربران نابینا و کم بینا می توانند از تلفن خود برای مکان یابی درها، افراد یا تابلوهای اطراف استفاده کنند. اکنون اپل در حال معرفی قابلیتی به نام Point and Speak است که از دوربین دستگاه و اسکنر LiDAR برای کمک به افراد ناتوان بینایی کمک می کند تا با اشیاء فیزیکی که دارای چندین برچسب متنی هستند تعامل داشته باشند.

اعتبار تصویر: سیب
بنابراین، اگر یک کاربر کم بینا بخواهد غذا را در مایکروویو گرم کند، میتواند از Point و Speak برای تشخیص تفاوت بین دکمههای «پاپ کورن»، «پیتزا» و «سطح قدرت» استفاده کند – وقتی دستگاه این متن را شناسایی میکند، آن را با صدای بلند می خواند Point and Speak به زبانهای انگلیسی، فرانسوی، ایتالیایی، آلمانی، اسپانیایی، پرتغالی، چینی، کانتونی، کرهای، ژاپنی و اوکراینی در دسترس خواهد بود.
یکی از ویژگیهای جالب این دسته، صدای شخصی است که صدایی خودکار ایجاد میکند که شبیه شما باشد نه سیری. این ابزار برای افرادی طراحی شده است که ممکن است در معرض خطر از دست دادن توانایی تکلم صوتی خود در اثر شرایطی مانند ALS باشند. برای تولید صدای شخصی، کاربر باید حدود پانزده دقیقه را صرف خواندن متنهای انتخابی تصادفی به وضوح در میکروفون خود کند. سپس، با استفاده از یادگیری ماشین، صدا به صورت محلی در iPhone، iPad یا Mac شما پردازش میشود تا صدای شخصی شما ایجاد شود. به نظر شبیه کاری است که Acapela با سرویس “صدای خود من” انجام می دهد، که با سایر دستگاه های کمکی کار می کند.
به راحتی می توان دید که چگونه یک مخزن از مدل های متن به گفتار منحصر به فرد و بسیار آموزش دیده می تواند در دستان اشتباه خطرناک باشد. اما طبق گفته اپل، این داده های صوتی سفارشی هرگز با هیچ کس، حتی خود اپل، به اشتراک گذاشته نمی شود. در واقع، اپل میگوید حتی صدای شخصی شما را با Apple ID شما وصل نمیکند، زیرا برخی از خانوادهها ممکن است ورود به سیستم را به اشتراک بگذارند. درعوض، اگر کاربران میخواهند صدای شخصی که در مک خود ایجاد میکنند در آیفونشان قابل دسترسی باشد، باید انتخاب کنند یا بالعکس.
در زمان راه اندازی، صدای شخصی فقط برای انگلیسی زبانان در دسترس خواهد بود و فقط می تواند در دستگاه های دارای سیلیکون اپل ایجاد شود.
چه به عنوان سیری صحبت کنید و چه به عنوان دوقلو با هوش مصنوعی، اپل برقراری ارتباط را برای افراد غیرکلامی آسانتر میکند. گفتار زنده که در همه دستگاههای اپل موجود است، به افراد اجازه میدهد تا آنچه را که میخواهند بگویند تایپ کنند تا بتوان آن را با صدای بلند گفت. این ابزار به صورت آماده در صفحه قفل موجود است، اما میتوان از آن در برنامههای دیگر مانند FaceTime نیز استفاده کرد. بعلاوه، اگر کاربران اغلب نیاز به تکرار عبارات مشابه دارند – مثلاً یک سفارش قهوه معمولی – می توانند عبارات از پیش تعیین شده را در Live Speech ذخیره کنند.
ابزارهای گفتار به متن موجود اپل نیز در حال ارتقا هستند. اکنون، Voice Control از ویرایش آوایی متن استفاده میکند که تصحیح سریع خطاها را برای افرادی که با صدای خود تایپ میکنند آسانتر میکند. بنابراین، اگر میبینید که رایانهتان «عالی» رونویسی میکند، اما میخواهید بگویید «خاکستری»، انجام آن تصحیح آسانتر خواهد بود. این ویژگی، پیشنهادات آوایی، در حال حاضر به زبانهای انگلیسی، اسپانیایی، فرانسوی و آلمانی در دسترس خواهد بود.

اعتبار تصویر: سیب
انتظار میرود این ویژگیهای دسترسی در سال جاری در محصولات مختلف اپل عرضه شود. اپل در حال گسترش دسترسی به SignTime به آلمان، ایتالیا، اسپانیا و کره جنوبی در روز پنجشنبه است. SignTime به کاربران مترجم زبان اشاره درخواستی را برای مشتریان Apple Store و Apple Support ارائه می دهد.