il y a 3 semaines -  - 2 minutes

IA éthique : certains dirigeants craignent de ne pas atteindre leurs objectifs

Une étude conduite par Forrester met en lumière les craintes de certaines directions en matière de développement d’une IA éthique. Ces derniers s’inquiètent de ne pouvoir atteindre les objectifs liés par l’augmentation des coûts ou la survenance de mauvais résultats commerciaux.

Les travaux autour du développement d’une IA éthique fait naître des interrogations et craintes chez une partie des professionnels du secteur. Selon les résultats d’une étude publiée par Forrester pour InRule Technology, près de deux tiers des décideurs en matière d’IA craignent de ne pas atteindre les objectifs éthiques de leur entreprise. Les raisons invoquées sont relativement simples. Les risques invoqués sont liés à la hausse des coûts et aux mauvais résultats commerciaux.

Autre point bloquant, les responsables interrogés craignent de ne pas atteindre les objectifs réglementaires définis le premier jour. Ils ne sont ainsi environ que la moitié des responsables à être en mesure de surmonter ces risques. Les obstacles nommés ont donc principalement traits à la grande complexité des processus automatisés.

Intelligence artificielle IA transition écologique IA éthique

Autre risque, celui de voir une déperdition des compétences des collaborateurs, en cas d’automatisation des process. Deux tiers des participants à l’étude consentent ainsi à expliquer que l’intégration de nouveaux outils sera complexe.

A noter que Numeum agit en faveur du développement d’un intelligence artificielle éthique. L’organisation professionnelle numérique déploie l’initiative Ethical AI. Cette dernière permet aux entreprises qui développent des outils d’intelligence artificielle d’éviter d’être confrontées au risque d’émergence de biais créés par la technologie. Pour éviter ces écueils, l’initiative Ethical AI publie un guide méthodologique pratique. Le document dresse des propositions et des recommandations pour chaque professionnel.

Olivier Robillart