iOS 12 et les développeurs

wwdc 2018

Depuis le 17 septembre, iOS12 est officiellement disponible apportant son lot de nouveautés et d’optimisations pour les utilisateurs. Mais la bêta était déjà disponible depuis plusieurs mois pour les plus curieux ou les développeurs qui voulaient utiliser les nouveautés de Swift 4 ainsi que les nouveaux kits de développement proposés par Apple. Et à ce niveau là nous n’avons pas été déçus ! Je vous propose de voir ensemble deux de ces kits:

ARKit2

Comme j’en parlais dans mon article sur pourquoi développer sous iOS, Apple met à disposition bon nombre de kits de développement afin de faciliter la vie des développeurs iOS. Parmi eux un de mes préférés s’appelle ARKit et permet (comme son nom l’indique) de faire de la réalité augmentée de façon bien plus simple et optimisée que si on cherchait à le faire soi-même. J’avais tenté sous Swift 2 de réaliser une application en AR (un jeu nommé Eposia qui consistait à tirer sur des ennemis qui apparaissaient tout autour de nous) en calculant moi-même la position de la caméra depuis les données du gyroscope. Mais à cause de la difficulté que représentais le calibrage il arrivait que la caméra se décale et il fallait offrir aux utilisateurs un bouton de re-calibrage.

C’est alors qu’avec la sortie d’iOS 11 (le 12 septembre 2017) Apple sortit un tout nouveau kit: l’ARKit. En à peine une centaine de lignes de codes on pouvait faire apparaître un modèle 3D dans le monde réel avec une position fixe malgré les déplacements du joueur. Mais avec la sortie d’ARKit2, Apple propose d’aller encore plus loin !

Le tracking d’images

Nous en avions fait une présentation d’un prototype utilisant cette technologie sur notre page Facebook:

La réalité augmentée au service de l'art

La réalité augmentée au service de l'art ! 👾🎨Comprendre un tableau aide bien souvent à mieux apprécier l'oeuvre, voici donc un exemple de ce que pourraient être les audio-guides de demain: plus dynamiques et plus stimulants que les classiques et accessible aux malentendants. (les textes de l'analyse viennent de: https://lnkd.in/dTFu2sT)

Publiée par Steloria sur Jeudi 23 août 2018

L’idée du tracking d’images est de définir plusieurs images dans un dossier spécifique de notre application que cette dernière va chercher dans le monde réel quand la caméra est allumée. Une fois trouvée le développeur peut récupérer sa position, sa taille et son inclinaison afin de positionner n’importe quel élément par dessus. On peut aussi se contenter de récupérer le nom de l’image qui a été repérée afin d’adopter le comportement que l’on souhaite en fonction de ce qui se trouve devant nous.

La persistence

Une nouveauté qui va également révolutionner la façon dont les utilisateurs interagissent avec les apps en AR puisque cette fonction permet de scanner la pièce pour qu’une fois qu’un objet y est positionné il y reste même après fermeture et ré-ouverture de l’app. Cette fonctionnalité permet aussi d’avoir un mode « spectateur » qui permet à une autre personne d’observer la scène depuis un autre appareil iOS. Cela va permettre par exemple de créer des jeux tels que des puzzles ou des Tower Defense que l’utilisateur pourra sauvegarder et reprendre plus tard.

La mesure

Si vous avez téléchargé iOS12, vous avez sûrement déjà remarqué l’application « Mesures » qui a automatiquement été ajoutée sur votre téléphone. C’est également une des nouveautés d’ARKit2. ARKit2 peut calculer la distance qui nous sépare d’un objet et à partir de ça calculer la distance entre deux points dans l’espace.

Core ML 2
Core ML 2

Core ML 2

Un autre kit qui a également eu droit à sa version 2 avec iOS12 est Core ML, le kit d’Apple pour faire facilement du Machine Learning. Le kit de base permettait d’utiliser des modèles de machine learning entraînés dans des applications. Ces modèles peuvent par exemple être générés directement depuis un mac en utilisant un playground depuis Xcode. Il permet du coup de reconnaître un visage, du texte, des formes, etc, …

Natural Language

Une des nouveautés de Core ML s’appelle le Natural Language Framework. Il s’agit d’un framework permettant d’analyser une phrase et de détecter par exemple la langue dans laquelle elle a été rédigée. On peut également s’en servir pour détecter les différents types de mots (verbes, noms, déterminant, …), repérer des noms propres et distinguer les noms de personnes ou de société, … Enfin le kit permet également de faire de la Lemmatisation, c’est à dire récupérer la forme la plus simple du mot: sa forme canonique. Un mot peut en effet prendre plein de formes différentes (par exemple un verbe peut être conjugué) et la Lemmatisation permet de récupérer son infinitif afin de simplifier le traitement de la phrase.

 

Le SiriKit a également eu droit à quelques améliorations. Siri Shortcuts permet aux développeurs de préciser plusieurs actions disponibles depuis Siri pour leur application afin de faciliter la vie des utilisateurs. Les améliorations des Kits cette année pour la sortie d’iOS12 s’est révélée très intéressante et permet de rendre accessible à bon nombre de développeurs des technologies poussées. Et en les couplant aux kits déjà existants (par exemple ARKit et SceneKit) on arrive à créer des applications très poussées en économisant beaucoup en temps de développement.

Laisser un commentaire