Apple a publié aujourd'hui un nouveau billet sur son blog Machine Learning Journal lancé cet été.
Intitulé «Un réseau neuronal profond sur l'appareil pour la détection des visages», le dernier article de blog va très loin pour détailler les processus gourmands en ressources de reconnaissance des visages dans vos photographies en tirant parti de la puissance des processeurs et des GPU personnalisés d'Apple..
Apple reconnaît que son engagement ferme envers la confidentialité des utilisateurs l'empêche d'utiliser la puissance du cloud pour les calculs de vision par ordinateur. En outre, chaque photo et vidéo envoyée à la photothèque iCloud est cryptée sur votre appareil avant d'être envoyée à iCloud et ne peut être décryptée que par des appareils enregistrés avec le compte iCloud..
Certains des défis auxquels ils ont été confrontés pour faire fonctionner des algorithmes d'apprentissage en profondeur sur iPhone:
Les modèles d'apprentissage en profondeur doivent être intégrés au système d'exploitation, occupant ainsi un précieux espace de stockage NAND. Ils doivent également être chargés dans la RAM et nécessitent un temps de calcul important sur le GPU et / ou le CPU. Contrairement aux services basés sur le cloud, dont les ressources peuvent être dédiées uniquement à un problème de vision, le calcul sur l'appareil doit avoir lieu tout en partageant ces ressources système avec d'autres applications en cours d'exécution.
Plus important encore, le calcul doit être suffisamment efficace pour traiter une grande bibliothèque de photos dans un délai raisonnablement court, mais sans consommation d'énergie ni augmentation thermique importantes..
POINTE: Apprenez à votre iPhone ou iPad à reconnaître les visages des gens
Pour surmonter ces défis, Apple utilise BNNS et Metal pour déverrouiller et tirer pleinement parti de la puissance de ses GPU et CPU conçus en interne qui sont intégrés aux appareils iOS. Vous pouvez réellement sentir cette détection faciale sur l'appareil au travail après la mise à niveau vers une nouvelle version iOS majeure.
Cela invite généralement iOS à analyser à nouveau l'ensemble de votre bibliothèque de photos et à exécuter l'algorithme de détection faciale sur toutes les photos à partir de zéro, ce qui peut provoquer une surchauffe ou ralentir l'appareil jusqu'à ce que Photos ait terminé de numériser votre bibliothèque.
Apple a commencé à utiliser l'apprentissage en profondeur pour la détection des visages dans iOS 10.
Avec la sortie du nouveau cadre Vision dans iOS 11, les développeurs peuvent désormais utiliser cette technologie et de nombreux autres algorithmes de vision par ordinateur dans leurs applications.
Apple note qu'il a été confronté à des «défis importants» dans le développement du cadre Vision pour préserver la confidentialité des utilisateurs et permettre au cadre de fonctionner efficacement sur l'appareil.