Tech & Net

L’IA peut Répéter les Erreurs des Réseaux Sociaux, Avertit le Président de Microsoft

L’IA peut Répéter les Erreurs des Réseaux Sociaux, Avertit le Président de Microsoft

Le président de Microsoft, Brad Smith, a évoqué des inquiétudes croissantes concernant le développement rapide de l’intelligence artificielle (IA), mettant en garde contre la possibilité que cette technologie reproduise les erreurs commises au début de l’ère des réseaux sociaux. S’exprimant lors du forum d’affaires B20 à New Delhi, Smith a rappelé que l’industrie technologique avait été initialement trop enthousiaste à propos des avantages potentiels des médias sociaux, tout en négligeant les risques inhérents.

Le président de Microsoft a souligné l’importance de ne pas sous-estimer les limites de l’IA et de mettre en place des mécanismes de contrôle dès les premières étapes de son développement. Il a insisté sur la nécessité de réfléchir aux aspects négatifs et de prendre des mesures préventives pour éviter les écueils observés dans le passé avec les réseaux sociaux.

Un des principaux points de préoccupation évoqués par Brad Smith est la possibilité d’une utilisation malveillante de l’IA, notamment à travers les vidéos “deepfake”, qui peuvent faire dire aux individus des choses qu’ils n’ont jamais dites. De plus, l’IA pourrait impacter le monde professionnel en transformant ou en supprimant certains emplois, suscitant ainsi des inquiétudes parmi les travailleurs quant à la pérennité de leurs carrières.

Une étude de l’ONU a récemment indiqué que l’IA a le potentiel de créer davantage d’emplois qu’elle n’en détruit, mais elle modifiera la nature des emplois existants, avec des changements dans l’intensité du travail et l’autonomie. Selon Smith, il est primordial de garantir que l’IA reste sous le contrôle humain, et Microsoft a déjà engagé un partenariat avec OpenAI pour explorer les opportunités et les risques de l’IA, notamment à travers des projets tels que l’IA conversationnelle ChatGPT.

 

Que se passe-t-il en Tunisie?
Nous expliquons sur notre chaîne YouTube . Abonnez-vous!

Commentaires

Haut