Les outils d’intelligence artificielle (« IA ») connaissent une utilisation croissante et les sociétés n’échappent pas à cette tendance. L’IA permet aux entreprises d’être plus efficaces pour quantité de tâches, notamment les plus répétitives d’entre elles telles que l’encodage de données.
Cependant, une utilisation imprudente de l’IA pourrait engager la responsabilité de la société, mais également celle de ses dirigeants.
Une utilisation inadéquate d’un outil d’IA peut-elle être assimilée à une faute de gestion ?
Conformément aux articles 2:56 et 2:51 du Code des sociétés et des associations (« CSA »), les membres de l’organe d’administration, les délégués à la gestion journalière, ainsi que toute personne exerçant, même de fait, le pouvoir de gérer effectivement la société, engagent leur responsabilité envers celle-ci pour les fautes commises dans l’exercice de leurs fonctions.
Imaginons qu’un dirigeant d’entreprise, avant de conclure un contrat d’entreprise avec un sous-traitant, demande à un outil d’IA de vérifier l’existence de l’agrément nécessaire de son sous-traitant pour l’exécution du contrat. L’outil d’IA lui confirme que le sous-traitant est agréé, alors que tel n’est pas le cas.
La conclusion d’un contrat, sur la seule base de l’évaluation effectuée par l’utilisation d’une IA, sans vérification humaine complémentaire, pourrait être considérée comme fautive, si les circonstances de cette conclusion de contrat indiquent qu’un dirigeant normalement prudent aurait effectué des vérifications supplémentaires.
Un autre exemple d’usage potentiellement problématique de l’IA, serait celui d’un dirigeant de société qui introduit des données confidentielles de l’entreprise dans un outil d’IA non-sécurisé.
Dans ces deux exemples, une faute de gestion du dirigeant pourrait être recherchée et, ainsi, sa responsabilité pourrait être engagée.
Quid de la formation des employés à l’utilisation des outils d’IA ?
Au-delà de ses propres agissements, le dirigeant de société pourrait également voir sa responsabilité engagée, relativement à l’utilisation de l’IA au sein de son entreprise, s’il ne veille pas à encadrer cet usage d’une manière adéquate.
Depuis le 2 février 2025, les entreprises utilisant des systèmes d’IA doivent garantir un niveau suffisant de maîtrise de l’IA auprès de leurs employés et de toutes personnes impliquées dans le fonctionnement et l’utilisation desdits systèmes d’IA (article 4 du Règlement IA). Nous vous renvoyons à notre précédent article sur ce sujet.
Dans l’hypothèse où un dirigeant de société n’entreprend aucune démarche en vue de se conformer à cette obligation de formation, cela pourrait être vu comme une négligence fautive. Ici encore, une faute de gestion pourrait être recherchée.
Notre conseil :
Qu’elles le souhaitent ou non, l’utilisation d’outils IA par les entreprises est devenue nécessaire ou à tout le moins presque inévitable. Cette utilisation doit toutefois se faire de manière prudente et conforme aux différentes obligations légales. Il est donc nécessaire de définir une politique d’usage de l’IA ainsi que d’assurer une formation du personnel, afin que l’usage de l’IA ne puisse être effectué d’une manière préjudiciable à l’entreprise.
Le département Creactivity se tient à votre disposition pour vous accompagner dans l’encadrement de l’usage de systèmes d’IA au sein des entreprises et organisations.
N’hésitez pas à nous contacter pour toute question à ce sujet !