- Selon les experts du Cetim, puisque le manque de données représentatives peut être un handicap pour déployer une application d’Intelligence Artificielle (IA), les priorités à sa mise en œuvre sont donc justement la création de la donnée.
Dans l’industrie mécanique, il est difficile d’obtenir des données labélisées de bonne qualité et représentatives. L’absence de qualité se traduit par de mauvaises prédictions selon le principe « Garbage in, garbage out ». Cela nécessite un gros travail amont de mise en place de la collecte de données pour que celles-ci soient adaptées à l’apprentissage que l’on souhaite effectuer, contrairement aux applications de l’IA dans d’autres domaines où les bases de données sont déjà très bien structurées tels que les secteurs du marketing ou de la pharmacie.
La notion de confiance dans les données utilisées est donc essentielle. Il est également impératif de disposer d’une structure matérielle adaptée au déploiement de l’IA, tant sur le plan de la performance de traitement des données que sur la sécurisation de cette utilisation.
Dans le domaine industriel, peu de données représentatives valent beaucoup plus qu’une base massive non pertinente. En d’autres termes, il faut prétraiter les données massives (filtrage et élimination des données aberrantes, réduction de dimension…) afin d’utiliser les méthodes de l’IA et de prendre des décisions pertinentes. On parle de Small data dès que possible lorsque l’on a une idée précise de ce que l’on cherche.
Les données d’entrée qui serviront à l’apprentissage doivent être représentatives du phénomène physique réel, en prenant en compte les variations des paramètres influents (matière première, process, moyen de mesure et d’analyse, etc.). L’importance d’une bonne connaissance de l’architecture du système et de la stratégie de mesure associée est critique.
On parle donc ensuite de Smart data, dans lequel le savoir du métier doit être injecté pour aboutir à des solutions exploitables.
En règle générale le traitement temps réel est rendu possible grâce à l’IoT lorsque l’algorithme est déjà validé et les indicateurs définis. Les données peuvent être transmises et traitées en temps réel cependant l’impact peut varier d’une fonction à une autre. Par exemple, si on parle de sécurité de fonctionnement et que le temps réel est de l’ordre de la seconde, il vaut mieux privilégier l’Edge computing mais cela se fera au détriment de la souplesse d’évolution de la solution.
En fonction du type d’IA déployé, parfois une unique version de l’application logicielle est suffisante car le cas traité est simple, parfois il faut penser évolution dès les premières réflexions. Pour des systèmes d’apprentissage, il est impératif d’anticiper l’évolution, ne serait-ce que pour compléter l’apprentissage par des cas jamais vus encore. Typiquement, concernant les exigences industrielles (mais aussi législatives, écologiques, économiques), une IA qui n’évoluerait pas serait un non-sens, les exigences étant en perpétuelle évolution. Généralement, les évolutions matérielles ou logicielles permettent d’optimiser la rapidité de l’IA ou le stockage des données. L’IA est un algorithme plus ou moins complexe, assez peu dépendant du matériel. La création d’API dédiées, facilement intégrables dans une solution Cloud ou Edge semble aussi être une solution prometteuse. En revanche, une dégradation du matériel par rapport au niveau actuel est inenvisageable.
.