Компания Apple признала, что её функция определения лиц (напомним, что она появилась в iOS SDK 5.0) работает не всегда корректно, и что в некоторых случаях она не срабатывает вообще.
Тестирование независимого эксперта показало, что при любом сильном выражении эмоций (широкая улыбка, разочарование, слёзы на лице и так далее) — ПО от Apple практически гарантированно не детектирует человеческое лицо. Таким образом, в случае продукции Apple человек должен всегда сохранять полностью стандартное выражение лица, впрочем и в этом случае нет никакой гарантии того, что такое лицо будет правильно выделено на фоне большого количества других людей.
Apple признала неутешительные результаты тестирования независимого исследователя и пообещала, что в следующем релизе iOS 7.0 постарается полностью переработать метод faceDetector
из своей библиотеки CoreImage, которая и ответственна за такое не всегда штатное поведение этой функции.