L’intelligence artificielle (IA) est de plus en plus présente dans notre quotidien et peut soulever certaines préoccupations : entre innovation et sécurité des données personnelles, comment s’inscrit-elle dans le monde de l’investigation privée ?
Le 26 février 2024,
Victor d’APV Investigations, Ianis de Détective Company et Emeline d’AGENCY E
Temps de lecture : Environ 15 minutes
L’IA est définie de bien des manières. Selon la CNIL et le MagIT, c’est un domaine scientifique qui représente un outil utilisé par une machine. Ainsi, cette famille de technologies et de méthodes mathématiques a pour objectif de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité », c’est-à-dire tout un processus cognitifs des êtres humains pour réaliser des tâches.
Les branches de l’IA les plus connues à ce jour sont : la machine learning, le deep learning, et l’informatique cognitive.
Pour résumer, l’IA permet à une entreprise d’automatiser certaines tâches ou processus, afin d’améliorer sa performance et sa productivité.
Les IA développées à ce jour sont dites “faibles” : c’est-à-dire que ces machines semblent agir comme si elles étaient intelligentes et autonomes. D’après un chercheur en IA et pionnier de l’apprentissage profond : “l’ambition de parvenir à imiter une cognition humaine nécessiterait de nouvelles découvertes en recherche fondamentale et non une simple évolution des technologies actuelles d’apprentissage automatique”.
Cet enjeu technologique, qu’est l’innovation, amène certains pays dont la France à intégrer l’IA dans sa stratégie nationale, afin de devenir pionnière de l’innovation en 2030. Le programme propose ainsi une structuration de long terme de l’écosystème d’IA, à tous les stades du développement technologique.
Pourtant, ces nouvelles technologies font naître de nouveaux défis et enjeux : sur le plan juridique, sécuritaire et informationnel.
D’un côté, il existe un enjeu juridique et réglementaire. L'Union Européenne (UE) a compris l’importance d’instaurer un cadre pour définir les contours de l’IA. C’est pourquoi, l’UE a approuvé vendredi 2 février 2024 une législation pour réguler l’IA. Les discussions quant à ce projet de loi avaient été accélérées fin 2022, à la suite de l'apparition de ChatGPT.
Cette loi, l’IA Act (ou Acte IA) concerne notamment :
D’un autre côté, à ce jour, des enjeux sécuritaires, éthiques et informationnels sont au cœur des préoccupations de chaque utilisateur. De nombreux sujets d’actualité tendent à rendre la population méfiante vis-à-vis de l’IA au sujet de la collecte des données. Effectivement, 64% des français sondés expriment clairement cette défiance.
Entre le non respect de la protection des données, comme c’est le cas en Italie, et le souci du respect à la vie privée avec, par exemple, les lunettes Ray-Ban X Meta ; la problématique qui se pose est : quid de la réutilisation (traitement) des données collectées et comment sont-elles protégées ? Surtout que les systèmes d’IA sont en proie à de plus en plus de cyberattaques.
Également des risques de discrimination, mais aussi d’escroquerie et de harcèlement (points traités dans la partie suivante) à cause des DeepFakes et DeepVoice, créent un climat de méfiance. Ces dernières technologies peuvent amener, de manière générale, à de la désinformation avec la propagation massive et rapide de FakeNews. D’autant plus que certains ne sont pas sensibilisés quant à la vérification des sources.
Dans notre société, de manière générale, l’IA doit trouver un certain équilibre entre les avantages et les inconvénients. C’est également le cas dans le domaine de l’enquête privée.Comment l’IA est perçue dans le monde de l’investigation privée ?
L'intégration de l'intelligence artificielle dans notre quotidien a transformé de nombreux secteurs, allant de l'industrie à l'éducation, en passant par la sécurité. Toutefois, l'exploitation de cette technologie par des acteurs malveillants ouvre la porte à de nouvelles formes de cybercriminalité, rendant les outils basés sur l'IA des instruments puissants pour les escrocs et les fraudeurs. Ces technologies offrent des moyens sophistiqués de créer des contenus trompeurs, tels que des vidéos et des textes, posant ainsi de sérieux défis en termes de sécurité numérique.
Le deepfake, technique d'hyper-trucage, utilise l'IA pour modifier des visages et des corps dans des vidéos, créant ainsi des contenus faux mais convaincants. Cette technologie peut nuire gravement à la réputation des individus en les plaçant dans des contextes compromettants. Apparue pour la première fois en 2017 et perfectionnée grâce au deep learning, elle illustre parfaitement le potentiel malveillant de l'IA. Malgré des initiatives comme FakeCatcher d'Intel, qui détecte les vidéos falsifiées avec une grande précision, et des projets de désidentification par Facebook, les deepfakes restent une menace significative, utilisée pour diffuser de fausses informations ; souvent à des fins malveillantes.
ChatGPT, quant à lui, représente un outil d'IA polyvalent capable de générer du texte pour diverses applications, y compris malheureusement pour la cybercriminalité. Des arnaques élaborées, allant de faux algorithmes de cryptomonnaie promettant des gains irréalistes à des histoires “d'arnacœurs” élaborées, démontrent la facilité avec laquelle l'IA peut être détournée pour tromper et manipuler. Le phishing, en particulier, bénéficie de la capacité de l'IA à produire des communications convaincantes et sans erreur, augmentant ainsi le risque de tromperie pour les utilisateurs peu méfiants.
Ces avancées soulignent l'urgence d'une vigilance accrue face aux contenus numériques et la nécessité de développer des compétences en littératie numérique pour démêler le vrai du faux. L'éducation des utilisateurs sur les signes révélateurs de fraudes IA et la promotion d'outils de détection fiables sont essentielles pour contrer ces menaces. Ces points de vigilance ne font que renforcer l'enjeu technologique en France.
La cybercriminalité alimentée par l'IA présente des défis complexes et en constante évolution. Alors que les outils basés sur l'IA continuent de se développer, leur détournement à des fins malveillantes exige une réponse proactive et multifacette, impliquant à la fois des avancées technologiques en sécurité et une sensibilisation accrue du public.
Dans ce contexte, la lutte contre la cybercriminalité devient non seulement une question de technologie mais aussi d'éducation et de coopération professionnelle, soulignant l'importance de rester vigilant et informé dans un paysage numérique en perpétuelle mutation, mais aussi l'importance du rôle d'un enquêteur privé spécialisé dans ce domaine.
L'essor des Deepfakes souligne une avancée technologique majeure tout en posant un risque considérable pour la sécurité individuelle et collective. Cette technologie ouvre la porte à des formes sophistiquées d'usurpation d'identité, rendant les attaques de cybercriminalité plus convaincantes et difficiles à déceler.
Les deepfakes reposent sur les réseaux antagonistes génératifs (GAN), une invention de 2014 par Ian Goodfellow, ingénieur et informaticien. Ces GAN améliorent la capacité de créer des vidéos hyper-réalistes en utilisant de vastes bases de données d’images et de vidéos disponibles publiquement. L’authenticité apparemment irréprochable de ces contenus pose un risque majeur de manipulation, d'humiliation ou de fraude, affectant des individus, des entreprises et même la stabilité politique des États.
Ainsi, les détectives peuvent être amenés à être confrontés à des cas de DeepFake pour usurper une identité, afin de soustraire une conséquente somme d’argent. Ces techniques sont également utilisées pour générer des actions de harcèlement et de diffamation.
Récemment, nous avons pu prendre conscience de plusieurs situations de tromperie grâce aux DeepFake, dans le monde entier. Allant de Hong Kong (ce qui a coûté 25 millions de dollars à une multinationale) à la Grande Bretagne (220 000 euros transférés à la suite d’un DeepVoice). Ces incidents mettent en évidence non seulement la vulnérabilité des entreprises aux fraudes financières mais aussi la facilité avec laquelle les identités peuvent être usurpées pour commettre des actes malveillants.
D’autres exemples récents, comme c’est le cas de Taylor Swift, célèbre chanteuse et personnalité publique américaine, s'est retrouvée victime de cette exploitation délictueuse, avec la diffusion en ligne de nombreuses fausses images pornographiques la représentant. Nous pouvons supposer que cela est un moyen de déstabilisation dans le cadre des élections américaines.
Ces deepfakes pornographiques, diffusés massivement sur des plateformes comme X, ont exposé les lacunes dans les mesures de sécurité et de modération des contenus sur les réseaux sociaux. Par ailleurs, cela démontre comment un simple outil, accessible à tout le monde (ici Microsoft Designer) peut être détourné pour générer du contenu malveillant. Cette affaire interpelle notamment sur la nécessité de renforcer les contrôles et les politiques d'utilisation de ces technologies.
En tant que détective privé en France, nous pouvons bien imaginer que cette problématique peut toucher des acteurs stratégiques qui ont un réel rapport de force dans le monde des affaires.
Face à ces menaces, les secteurs privé et public intensifient leurs efforts pour contrer les abus des deepfakes. Google, par exemple, a publié une base de données de deepfakes pour entraîner les outils de détection, tandis que Facebook a exploré des technologies de "désidentification" pour protéger les vidéos contre les manipulations. Par ailleurs, des lois, comme celle adoptée en France en 2018 contre la manipulation de l'information, cherchent à encadrer la prolifération des contenus falsifiés.
Cependant, la course entre la création de deepfakes et le développement d'outils de contrôle efficaces reste serrée. L'innovation continuelle dans le domaine de l'IA promet, d'une part, des avancées dans la génération de contenu artificiel à partir de descriptions textuelles, augmentant le risque d'usurpation sans trace identifiable. D'autre part, elle offre l'espoir de développer des mécanismes de détection et de prévention plus robustes.
L'incident a attiré l'attention des législateurs et des politiciens américains, comme Yvette Clarke et Joe Morelle, qui ont exprimé leur préoccupation quant à l'escalade de telles pratiques avec l'avancement de l'IA. La proposition de loi Morelle visant à empêcher la création et la diffusion de deepfakes pornographiques sans consentement souligne l'urgence de réglementer l'utilisation de l'IA pour protéger l'intégrité et la vie privée des individus. La question aujourd’hui est : quid en Europe ?
Cet événement met en évidence non seulement les dangers inhérents à l'utilisation non réglementée de l'IA pour générer des deepfakes mais soulève également des questions sur la responsabilité des plateformes et des développeurs de technologies dans la prévention de telles exploitations. La nécessité d'une action urgente pour encadrer l'utilisation de l'IA et protéger les individus contre le harcèlement et la diffamation devient évidente. L'affaire Taylor Swift rappelle l'importance cruciale de développer et de mettre en œuvre des politiques et des technologies qui garantissent une utilisation sûre de l'IA, tout en préservant les droits des personnes.
Face aux défis imposés par la cybercriminalité et les deepfakes, les ARP jouent un rôle clé, adaptant leurs compétences et leurs outils pour lutter contre la fraude numérique. .
Dans un monde où la fraude représente une menace constante pour les entreprises et les individus, les Agents de Recherches Privées (ARP) jouent un rôle crucial dans la prévention et la mise en évidence de ces activités malveillantes. La fraude, avec ses nombreuses facettes - financière, d'identité, en ligne et commerciale -, nécessite une approche experte et adaptée pour être efficacement contrée. Les ARP, armés de compétences uniques en matière d'enquête et d'analyse, se positionnent en première ligne dans cette lutte.
Grâce à leur formation et à leurs compétences, ils sont capables d'identifier et de déjouer les montages complexes des fraudeurs. Leur expérience leur confère une compréhension approfondie des méthodes d'enquête. Cette polyvalence est cruciale, car la fraude ne se limite pas à un seul domaine ou à une seule méthode d'exécution. L'expertise des ARP dans la surveillance physique, l'analyse financière, et désormais les cyber-enquêtes, leur permet de s'adapter aux évolutions constantes des techniques de fraude.
L'utilisation d’outils spécifiques amplifie leur efficacité. Les logiciels d'analyse de données numériques, et la capacité à naviguer dans l'espace cyber sont des outils indispensables dans leur arsenal. Ces compétences, combinées à des techniques d'investigation traditionnelles comme la surveillance ou la filature, permettent aux ARP de recueillir des preuves concrètes et judiciarisables grâce aux rapports qu’ils délivrent systématiquement en fin d’enquête à leurs clients.
Leur rôle ne se limite pas uniquement à l'enquête ; ils jouent également un rôle préventif crucial. En collaboration avec les entreprises, ils fournissent des conseils stratégiques pour renforcer les mesures de sécurité et effectuer des audits réguliers pour identifier et corriger les vulnérabilités. Cette approche proactive est essentielle pour anticiper et éviter les incidents de fraude avant qu'ils ne se produisent.
Une synergie entre les secteurs public et privé ; avec les services de gendarmerie, de police ou des douanes, peut s’avérer indispensable pour aborder le problème de la fraude de manière holistique et efficace. En effet, le rapport circonstancié d’un détective peut s’avérer très efficace afin d’apporter la preuve avant la saisine auprès des services judiciairement compétents.
Les ARP sont ainsi des piliers dans la lutte contre la fraude. Leur expertise et leurs outils font d'eux des acteurs actifs dans la protection contre les fraudeurs, assurant ainsi la sécurité du paysage économique et social des entreprises françaises.
Tout en reconnaissant que l'IA peut ouvrir la voie aux malfaiteurs, il est également indispensable de souligner son rôle en tant qu’allié pour les enquêteurs privés.
Depuis des décennies, l'image du détective privé évoque des enquêtes minutieuses, la résolution de mystères complexes et des retournements de situation dramatiques. Toutefois, l'émergence de l'intelligence artificielle marque une nouvelle ère pour cette profession, où la technologie devient un allié puissant et incontournable pour résoudre des affaires complexes et éclaircir des mystères en un temps record.
L'une des applications les plus remarquables de l'IA dans le domaine de l’investigation privée réside dans son utilisation pour l'analyse de faux documents. Grâce à des algorithmes sophistiqués de reconnaissance de motifs et à des techniques de traitement d'image de pointe, les détectives peuvent désormais détecter les faux de manière plus efficace que jamais. La technologie de la vue 3D, par exemple, permet une analyse approfondie des documents pour repérer les irrégularités qui échapperaient à un œil non averti.
Cette capacité réduit considérablement le temps nécessaire pour déterminer l'authenticité des documents et permet aux détectives de se concentrer sur d'autres aspects de leur enquête.
Dans pareille situation, un détective privé pourrait être engagé pour vérifier l'authenticité d'un contrat crucial dans un litige commercial. En exploitant des logiciels d'IA spécialisés, les détectives pourraient scruter minutieusement chaque aspect du document, décelant ainsi des anomalies subtiles qui auraient pu passer inaperçues autrement.
Cette analyse approfondie permettrait de mettre en lumière le caractère frauduleux du contrat, fournissant ainsi à leur client les preuves nécessaires pour remporter l'affaire devant les tribunaux.
Une autre application majeure de l'IA dans le métier de détective privé est sa capacité à localiser des personnes et des lieux avec une précision impressionnante. Des outils utilisant des algorithmes de reconnaissance d'images, peuvent retracer les origines géographiques des photos ou des vidéos, offrant ainsi des pistes indispensables dans les enquêtes de disparition ou de fraude.
Les détectives peuvent recueillir des informations rapidement et efficacement, ce qui peut faire la différence dans des affaires où chaque minute compte.
Dans le cas d’une disparition de personne, une agence de détective privé pourrait utiliser des logiciels d'IA pour analyser les images de vidéosurveillance et retracer les mouvements d'une personne disparue. Grâce à cette technologie, ils pourraient cartographier précisément les déplacements de la personne avant sa disparition et identifier des zones potentielles où elle aurait pu se rendre. Ces informations seraient cruciales pour orienter les recherches et aider à retrouver la personne disparue.
En parallèle, l'IA se révèle être un atout précieux pour la veille et la recherche d'informations. Les détectives privés peuvent exploiter des algorithmes de traduction et de synthèse de texte pour analyser des documents provenant de sources variées et les comprendre dans leur langue d'origine.
Les détectives accèdent à une plus grande quantité d'informations et identifient des tendances ou des schémas qui pourraient ne pas être apparents à première vue. Cela leur permet de prendre des décisions éclairées et de mener des enquêtes plus approfondies.
Dans un cas d’enquête sur une série de vols de propriété intellectuelle au sein d'une entreprise, l’usage des outils d'IA pour analyser des milliers de documents internes de l'entreprise, permettrait aux détectives d’identifier des schémas de comportement suspects et remonter jusqu'aux employés responsables des vols.
Cette utilisation stratégique de l'IA par l’ARP permettrait à l'entreprise de mettre fin aux activités criminelles et de protéger ses actifs intellectuels.
En outre, l'IA révolutionne la communication et le marketing des agences de détectives privés. Des chatbots intelligents peuvent être intégrés aux sites web pour fournir des informations instantanées aux clients potentiels et les orienter vers les services appropriés.
Cette stratégie dynamise la communication et améliore l'expérience client, renforçant ainsi la réputation de l'agence. De plus, les détectives peuvent utiliser l'IA pour cibler efficacement leur publicité et leurs campagnes marketing, en s'assurant que leurs messages atteignent les bonnes personnes au bon moment.
Dans une initiative novatrice, une agence de détective privé a développé un chatbot IA pour son site web, permettant aux visiteurs de poser des questions et de demander des conseils en temps réel. Ce chatbot utilise des algorithmes avancés pour comprendre les besoins des clients et leur fournir des réponses précises et personnalisées. Non seulement cela améliore l'expérience utilisateur, mais cela permet également à l'agence de recueillir des informations précieuses sur les besoins et les préoccupations de sa clientèle, ce qui peut être utilisé pour affiner leurs services et leurs stratégies marketing.
Finalement, nous avons un aperçu fascinant et intéressant de la manière dont l'IA est intégrée dans la pratique quotidienne dans une agence de détectives 4.0, grâce au podcast de Margaux Duquesne avec Philippe Chevalier.
Si l'IA est un outil avantageux pour un détective, elle peut être néanmoins utilisée d'une manière non conventionnelle par ce dernier.
Il est important d'examiner également les dérives potentielles de son utilisation, ce qui soulève des préoccupations légitimes quant à l'éthique et à l'intégrité de la profession. Alors que l'IA peut être utilisée pour analyser des preuves existantes, elle peut aussi être exploitée pour générer de faux éléments de preuve. Des outils de rédaction automatique sont capables de produire des textes convaincants, y compris des faux enregistrements vocaux, des faux documents ou même des DeepFakes. Ces fausses preuves pourraient être utilisées pour manipuler des enquêtes, induire en erreur les tribunaux et compromettre l'intégrité des affaires.
Une des dérives les plus préoccupantes de l'utilisation de l'IA par les détectives privés est la possibilité de falsifier des documents et des factures. Des logiciels de rédaction automatique peuvent être utilisés pour générer de fausses factures, créant ainsi une fausse comptabilité. Elle peut également avoir des conséquences juridiques graves pour les détectives privés impliqués.
Un autre problème majeur soulevé par l'utilisation généralisée de l'IA dans l’investigation du détective privé est la question de la recevabilité des rapports entièrement rédigés par des algorithmes. Alors que les rapports traditionnels sont généralement rédigés par des professionnels humains et sont soumis à des normes strictes en matière de qualité et de fiabilité, les rapports entièrement générés par l'IA pourraient être remis en question quant à leur objectivité et leur exactitude. Nous rappelons les principes dans la prestation de l’ARP que sont : la vie privée, la proportionnalité, le cadre juridique et surtout la loyauté.
Les tribunaux pourraient être réticents à accepter des preuves rédigées entièrement par des machines, remettant ainsi en question la crédibilité et la légitimité des détectives privés qui les utilisent.
Si l'intelligence artificielle offre des avantages indéniables aux détectives privés, elle présente également des risques significatifs pour l'intégrité et l'éthique de la profession. La possibilité de générer de faux éléments de preuve, de falsifier des documents et des factures, et les défis liés à la recevabilité des rapports rédigés par l'IA soulèvent des préoccupations légitimes quant à l'utilisation responsable de cette technologie.
Il est essentiel que les détectives privés restent vigilants et éthiques dans leur utilisation de l'IA, en veillant à ce qu'elle soit utilisée de manière responsable et conforme aux normes professionnelles et éthiques de la profession.
En somme, cette analyse permet de comprendre que l’IA a un énorme potentiel et que nous en sommes qu’aux prémices. Il est naturel d’avoir une certaine défiance pour des technologies informatiques que l’on ne maîtrise pas totalement, avec des contours flous et comme préoccupations principales : la sécurité des données et le respect à la vie privée.
Il est normal qu’un détective privé se pose la question de sa disparition au profit d’une IA bien plus productive et à moindre coût ; anxiété que l’on retrouve dans le domaine juridique avec la justice prédictive qui se développe de plus en plus depuis environ six ans.
Il serait trop tôt pour affirmer qu’une machine puisse remplacer un humain, surtout sur le plan de la confirmation des données provenant du terrain. De nos jours, il serait bon de se diriger vers la problématique : “comment rendre l’IA, un outil incontournable pour les enquêteurs en droit privé ?”
À l’instar de l’outil pour détecter des faux documents, il serait intéressant d’avoir une IA permettant de détecter de manière sophistiquée des fraudes. Ou bien, tout simplement un dispositif pour optimiser la gestion administrative, afin que le détective se concentre sur ses enquêtes.
In fine, pour élargir le champ de la réflexion, il serait important de relier l’IA à la notion de responsabilité dans le cadre des fraudes.
Pour aller plus loin :
https://www.finovox.com/blog/la-vue-3d-dans-lanalyse-de-faux-documents/
Merci infiniment aux confrères qui ont bien voulu participer à la rédaction de cette analyse.
Détective privé spécialisé dans la lutte contre la contrefaçon, basé à Paris
©Droits d'auteur - AGENCY E - Tous droits réservés 2024
Nous avons besoin de votre consentement pour charger les traductions
Nous utilisons un service tiers pour traduire le contenu du site web qui peut collecter des données sur votre activité. Veuillez consulter les détails dans la politique de confidentialité et accepter le service pour voir les traductions.