L’IA n’épargne pas les images lors de leur création et de leur édition. Le MIT, Massachusetts Institute of Technology (MIT), développe un outil de protection spécialisé pour lutter contre les « deepfakes ».
Dans la période actuelle, on assiste à une multiplicité de systèmes génératifs d’IA. Certains d’entre eux se spécialisent dans l’édition d’images, comme DALLE, Stable Diffusion (ou Midjourney), ou DALLE. Nous n’en sommes qu’aux prémices de cette révolution, mais leurs performances sont impressionnantes. Cependant, cette montée en puissance s’accompagne d’inquiétudes. L’AIS permet de manipuler facilement les photos en les modifiant ou en les volant. Le MIT a développé PhotoGuard, un outil qui peut être utilisé comme défense contre de telles menaces.
Table des matières
- PhotoGuard ou l’immunisation des images pour la protection
- L’importance d’une approche collaborative pour lutter contre la manipulation d’images
PhotoGuard ou l’immunisation des images pour la protection
PhotoGuard fonctionne de manière simple. Le programme modifie certains pixels pour empêcher l’IA de fonctionner. Celle-ci aura alors du mal à lire l’image et pourra penser à tort qu’il s’agit d’une autre image. Les IA peuvent détecter ces perturbations très facilement, même si l’œil humain ne les voit pas. Leur fonctionnement s’en trouve gravement perturbé. Cette technique de défense, le « codeur », retourne la puissance du système d’IA en sa faveur. Intelligent.
PhotoGuard est capable d’utiliser une méthode complexe appelée « diffusion ». Il s’agit d’une technique plus proche du camouflage. L’image cible est cachée derrière une autre image. Ainsi, lorsque l’IA tentera de modifier l’image, les résultats seront totalement irréels, ce qui rendra toute tentative de fraude inefficace. L’image est en quelque sorte immunisée.
L’importance d’une approche collaborative pour lutter contre la manipulation d’images
La « technique codée » trompe en fait l’algorithme du modèle d’IA en lui faisant croire que l’image qui est modifiée est une autre image. La technique de « diffusion » force l’IA à cibler une image qu’elle ne devrait pas cibler. Néanmoins, il avertit le public que cette méthode est loin d’être infaillible et qu’elle peut être facilement contournée. Il suffit d’ajouter du bruit numérique. L’image peut être tournée ou recadrée pour contourner cette protection.
Il insiste également sur le fait que ces entreprises, qui développent des modèles d’IA, doivent à tout prix concevoir des mesures de protection et d’immunité des images.
Les logiciels basés sur l’IA se développent rapidement, ce qui va à l’encontre des actions de ceux qui sont en mesure de nous protéger contre l’utilisation abusive de cette technologie. Même si vous saluez le projet du MIT, cela ne suffira pas. Les menaces potentielles inhérentes à l’utilisation malveillante de l’IA doivent être abordées dans le cadre d’une approche collaborative globale. Il est important que les entreprises acceptent la responsabilité de l’intelligence artificielle qu’elles développent. Les développeurs d’IA représentent le chat. Les personnes ou les institutions mal intentionnées sont la souris.