Chez LittleBig Connection, nous utilisons l’intelligence artificielle pour améliorer la manière dont les entreprises identifient et gèrent les talents externes. À mesure que l’IA devient une composante centrale des opérations métiers, la demande de transparence, d’équité et de conformité ne cesse de croître. Cela est particulièrement vrai à la lumière de l’AI Act de l’Union Européenne, qui introduit des lignes directrices claires pour une utilisation responsable de l’IA.
Dans cet article, nous vous présentons les fonctionnalités d’IA de notre plateforme, la technologie qui les alimente, et la manière dont nous protégeons les données, assurons l’équité, et restons conformes à chaque étape.
Quelles fonctionnalités IA proposons-nous ?
Pour offrir une expérience d’achat augmentée, nous mettons à disposition de nos clients deux fonctionnalités clés basées sur l’IA :
AI RFP Writer
Cet assistant génératif aide les utilisateurs à créer ou améliorer les titres et descriptions des appels d’offres. Il simplifie la rédaction et garantit une qualité constante des briefs projets.
AI Score
Cette fonctionnalité évalue dans quelle mesure un consultant correspond à un appel d’offres. Elle compare le titre et la description de l’AO avec le profil professionnel du consultant et retourne un score numérique accompagné d’une explication écrite. Le AI Score est conçu pour assister la prise de décision, non la remplacer.
Quels modèles utilisons-nous pour alimenter nos fonctionnalités IA ?
Nos fonctionnalités IA sont propulsées par les modèles d’OpenAI via le service Azure OpenAI de Microsoft.
Ces modèles sont accessibles uniquement via l’infrastructure Azure de Microsoft. Nous n’utilisons pas l’API publique d’OpenAI ni des services comme ChatGPT. Tous les traitements IA sont effectués sur Azure France Central, garantissant que les données sont stockées et traitées dans l’Union Européenne, en conformité avec le RGPD et les exigences de résidence des données.
Comment Azure garantit-il la confidentialité et l’isolement des données ?
Toutes les fonctionnalités IA de notre solution sont alimentées par le service Azure OpenAI de Microsoft. Cela signifie que lorsque notre plateforme utilise l’IA pour des tâches comme le matching de propositions ou la rédaction d’appels d’offres, les données sont traitées dans l’infrastructure cloud sécurisée de Microsoft. Elles NE SONT PAS envoyées à OpenAI directement, et NE SONT PAS traitées par des services publics d’IA.
Voici ce que cela signifie pour vous :
Les informations envoyées à l’IA (comme les descriptions de missions ou les compétences des candidats) ne sont partagées avec aucun autre client de Microsoft.
Vos données NE SONT PAS accessibles à OpenAI.
Aucun contenu que vous saisissez n’est utilisé pour entraîner ou améliorer les modèles d’OpenAI ou les services de Microsoft.
Tous les traitements ont lieu dans les data centers Azure situés dans l’Union Européenne, en particulier la région Azure France Central.
Les résultats générés par l’IA vous appartiennent et sont traités dans le respect total du RGPD.
Vos données restent privées, utilisées uniquement pour délivrer les fonctionnalités IA sur notre plateforme, jamais pour de l’entraînement externe ou un usage commercial.
Pour plus d'informations, consultez la politique officielle de Microsoft : Données, confidentialité et sécurité pour azure OpenAI Service - Azure AI services.
Privacy by Design et minimisation des données
Nous suivons des pratiques strictes de minimisation des données dans toutes les interactions avec l’IA. Par exemple, pour la fonctionnalité AI Score, aucune information personnellement identifiable n’est transmise. Le modèle ne voit jamais de noms, photos, coordonnées, âge, genre ou nationalité.
Nous nous concentrons uniquement sur des attributs professionnels pertinents pour la mission.
Cette approche réduit le risque de biais et garantit que le scoring IA repose uniquement sur l’expérience, les compétences et les qualifications.
Équité et réduction des biais
Notre IA est conçue pour favoriser des décisions justes et impartiales. En supprimant les données démographiques ou sensibles des entrées, nous éliminons les variables qui pourraient entraîner une discrimination. Le modèle se concentre uniquement sur ce qui compte : les compétences, l’expérience et l’adéquation au poste.
Nous effectuons également des audits internes réguliers pour analyser les performances de l’IA. En cas de détection de biais involontaire, nous intervenons rapidement pour les corriger, assurant que l’équité reste au cœur de notre approche.
Conformité à l’IA Act de l’UE
Nous concevons et opérons nos fonctionnalités IA en accord avec les principes et obligations du règlement européen IA Act. Notre approche inclut :
Supervision humaine : l’IA sert à soutenir, et non remplacer, la prise de décision. Les décisions finales sont prises par des utilisateurs humains.
Transparence : toutes les fonctionnalités IA sont clairement identifiées sur la plateforme avec un tag “IA”, et chaque score ou suggestion généré est accompagné d’une explication écrite.
Réduction des biais : nous excluons toutes les données personnelles ou démographiques des entrées IA, garantissant des évaluations basées uniquement sur des informations professionnelles pertinentes.
Infrastructure sécurisée : tous les traitements IA ont lieu dans la région Azure France Central, garantissant que les données restent dans l’Union Européenne.
Gouvernance documentée : nos pipelines de traitement des données sont sécurisés, traçables et conformes au RGPD.
Ces mesures garantissent que nos systèmes IA sont non seulement performants, mais aussi fiables, légaux et équitables.
Nous réalisons également des audits sur notre usage des données, et nous sommes certifiés ISO 27001 et ISO 9001. Nous avons également obtenu une note de 970/1000 de la part de CyberVadis.
Des questions ou besoin de plus d’informations ?
Que vous soyez client, partenaire potentiel ou simplement curieux de savoir comment nous mettons en œuvre une IA responsable, n’hésitez pas à contacter votre interlocuteur habituel ou notre équipe produit.
Nous sommes résolument engagés à construire une technologie sûre, transparente et équitable. Alors que les réglementations et attentes évoluent, nous continuerons à renforcer nos dispositifs de protection et à vous tenir informés de notre approche en matière d’IA responsable.