L'IA est rapide, robuste, fonctionne presque sans erreur et ne fait pas de pause. Elle est donc déjà supérieure à l'homme dans de nombreux domaines où les processus de travail doivent être exécutés en continu avec un rendement et une qualité élevés et constants. Soit des raisons pour lesquelles on souhaite utiliser l'IA dans l'environnement de vision industrielle en interaction avec la robotique, afin de rendre les processus plus efficaces et moins coûteux. Le cas d'utilisation du « robot à vision guidée » montre comment des tâches typiques de pick & place peuvent être automatisées intelligemment avec un robot et une caméra de vision à IA embarquée et peuvent même se passer d'un PC.
Pour une « préhension intelligente », différentes disciplines doivent collaborer de manière optimale. Par exemple, si la tâche consiste à trier des produits de taille, de forme, de matériau ou de qualité différents à l'aide d'un robot, il ne suffit pas de les saisir, il faut aussi les identifier, les analyser et les localiser au préalable. Avec les systèmes de traitement d'images basés sur des règles, cela est souvent non seulement très compliqué, mais aussi difficilement réalisable de manière économique, surtout pour les petites tailles de lots. Mais en combinaison avec l'inférence basée sur l'IA, il est déjà possible aujourd'hui d'enseigner aux robots industriels les compétences nécessaires et les connaissances sur les produits d'un ouvrier spécialisé.
Sur une ligne de production, des objets sont éparpillés au hasard sur un tapis roulant. Les objets doivent être reconnus, sélectionnés et placés, par exemple, dans un emballage ou transférés en position correcte vers une station de traitement ou d'analyse. L'entreprise de logiciels urobots GmbH a développé une solution sur PC pour la saisie d'objets et la commande de robots. Leur modèle d'IA entraîné a été capable de reconnaître la position et l'orientation des objets dans des images de caméra, à partir desquelles des coordonnées de préhension ont ensuite été déterminées pour le robot. L'objectif était maintenant de porter cette solution sur le système de vision embarqué basé sur l'IA d'IDS Imaging Development Systems GmbH. Car pour la solution, urobots tenait surtout à deux choses :
1. L'utilisateur devait avoir la possibilité d'adapter lui-même facilement le système à différents cas d'application sans avoir besoin d'une expertise particulière en matière d'IA. Et cela, même si, par exemple, quelque chose changeait dans la production, comme l'éclairage, l'apparence des objets ou même si d'autres types d'objets devaient être intégrés.
2. L'ensemble du système devait fonctionner entièrement sans PC grâce à la communication directe des composants de l'appareil, afin d'être à la fois économique, léger et peu encombrant.
Ces deux exigences sont déjà résolues chez IDS avec le système de caméra d'inférence IDS NXT. Un réseau neuronal entraîné identifie tous les objets de l'image et détecte en outre leur position et leur orientation. Grâce à l'IA, cela n'est pas seulement possible pour les objets fixes et toujours identiques, mais aussi lorsqu'il y a beaucoup de variance naturelle, comme pour les aliments, les plantes ou d'autres objets flexibles. Il en résulte une détection très fiable de la position et de l'orientation des objets. La société urobots GmbH a entraîné le réseau pour le client avec son propre logiciel et ses connaissances, l'a converti au bon format et l'a ensuite téléchargé sur la caméra IDS NXT. Pour ce faire, il a dû être traduit dans un format spécial qui ressemble à une sorte de « liste chaînée ». Le portage du réseau neuronal entraîné pour l'utilisation dans la caméra d'inférence a été très simple grâce à l'outil IDS NXT ferry fourni par IDS. Chaque couche du réseau CNN devient alors un descripteur de noeud qui décrit précisément chaque couche. Finalement, une liste chaînée complète du CNN est créée en représentation binaire. Un accélérateur CNN spécialement conçu pour la caméra et basé sur un coeur FPGA peut ensuite exécuter ces formats CNN universels de manière optimisée.
L'application de vision développée par urobots calcule alors les positions optimales de préhension à partir des données de détection. Mais la tâche n'était pas terminée pour autant. Outre le Quoi, Où et Comment saisir, il fallait établir une communication directe entre la caméra IDS NXT et le robot. Et il ne faut pas sous-estimer cette tâche. C'est souvent là que se décide le temps, l'argent et la main d'oeuvre à investir dans une solution. urobots a implémenté un protocole réseau basé sur XMLRPC dans l'application de vision de la caméra avec IDS NXT Vision App Creator, afin de transmettre les instructions de travail concrètes directement au robot. L'application finale de vision IA détecte les objets en 200 ms environ et atteint une précision de position de +/- 2 degrés.
Ce n'est pas seulement l'intelligence artificielle qui rend ce cas d'utilisation si futé. Le fait que cette solution fonctionne entièrement sans PC supplémentaire est également intéressant à deux égards. Comme la caméra génère elle-même des résultats de traitement d'image et ne se contente pas de fournir des images, il est possible de se passer du matériel informatique et de toute l'infrastructure qui y est liée. En fin de compte, cela réduit les coûts d'acquisition et d'entretien de l'installation. Mais très souvent, il est également important que les décisions relatives aux processus soient prises directement sur place, c'est-à-dire « in time ». Les processus suivants peuvent ainsi être exécutés plus rapidement et sans latence, ce qui permet dans certains cas d'augmenter la cadence.