Apple a annoncé jeudi sur son blog Machine Learning Journal qu'il participerait à NeurIPS, ou à la conférence sur les systèmes de traitement de l'information neuronale, qui se tiendra la semaine prochaine du 2 au 8 décembre à Montréal, Canada.
Il disposera d'un stand à NeurIPS composé d'experts en apprentissage automatique de toute l'entreprise. Le poste continue de publier 137 emplois ouverts dans les différents domaines de l'apprentissage automatique, y compris l'intelligence artificielle, la vision par ordinateur, la science des données et l'apprentissage profond, l'infrastructure d'apprentissage automatique, l'apprentissage par renforcement, les technologies langagières, etc..
Pour postuler à ces postes, visitez le site Web d'Apple Jobs.
Le géant de la technologie de Cupertino interdisait à ses scientifiques du machine learning et de l'intelligence artificielle de publier leurs résultats ou d'assister à des conférences spécialisées, mais cela a changé avec l'arrivée du blog du Machine Learning Journal en juillet 2017.
Depuis quelques années, Apple développe la pile matérielle et la pile semi-conductrice en pensant à l'apprentissage automatique. Les iPad Pros 2018 et les deux dernières générations d'iPhone ont énormément bénéficié du matériel d'apprentissage machine dédié d'Apple, surnommé le moteur Neural, qui accélère considérablement les lourdes tâches de calcul telles que la reconnaissance d'images et d'objets, l'analyse vocale, l'intelligence artificielle, l'analyse de scènes et plus encore..
Le moteur neuronal est intégré aux puces de la série A d'Apple, à commencer par le A11 Bionic de l'an dernier. L'A12 Bionic de cette année dispose d'un matériel Neural Engine encore plus rapide capable d'exécuter jusqu'à cinq mille milliards d'instructions par seconde. Cela a permis une analyse des images et des scènes jusqu'à 10 fois plus rapide que la puce A11 Bionic, ce qui a rendu possibles les fonctionnalités avancées de photographie informatique et les capacités d'imagerie comme le contrôle de la profondeur en temps réel et le Smart HDR.
Sur les iPhones sans Neural Engine, iOS retombe sur le CPU et le GPU pour ces tâches.
Au cours de l'été, Apple a embauché le vétéran chevronné de Google et ancien chef de la recherche et de l'IA, John Giannandrea, et a fusionné ses équipes Core ML et Siri.