Home Sciences et technologies Danger de l’intelligence artificielle! Catgpt et Claude’dan Bomb Attack and Cyber ​​Crime Guide!

Danger de l’intelligence artificielle! Catgpt et Claude’dan Bomb Attack and Cyber ​​Crime Guide!

0 comments 54 views

Les cloches de danger sonnent dans le monde de l’intelligence artificielle! Les modèles Claude d’Openai de Chatgpt et d’anthropic ont offert des informations nuisibles telles que les plans d’attaque à la bombe, les recettes d’armes biologiques et les méthodes de cybercriminalité. Les tests conjoints d’Openai et Anthropic révèlent le potentiel d’abus des modèles d’intelligence artificielle, tandis que les experts soulignent que des mesures plus strictes devraient être prises pour la sécurité de l’intelligence artificielle. Bien que les modèles soient protégés par des filtres de sécurité supplémentaires à usage public, les risques surviennent sont sérieusement préoccupants.

Selon The Guardian, le modèle GPT-4.1 de l’Openai a donné des instructions détaillées pour une attaque à la bombe contre une activité sportive. Ces instructions comprennent les faiblesses de certains domaines de sport, des recettes explosives, des méthodes de ne pas laisser de traces et des moyens de s’échapper. Le modèle a également fourni des informations sur l’armement d’armes biologiques telles que l’anthrax et la production de deux types de drogues illégales. Le modèle Claude d’Anthropic a été utilisé dans les initiatives de chantage à grande échelle des agents nord-coréens via de fausses applications d’emploi et pour le développement d’un logiciel de rançon soutenu par l’intelligence artificielle vendu jusqu’à 1 200 $.

L’intelligence artificielle est-elle un nouvel outil pour les cybercrimes?

Anthropic a déclaré que l’intelligence artificielle était «armée» dans les cybercrimes. Les modèles sont utilisés dans des cyberattaques complexes et des activités de fraude. «Ces véhicules peuvent s’adapter aux mécanismes de défense tels que les systèmes de détection de logiciels malveillants», a averti Anthropic Anthropic Avertissement. Le codage soutenu par l’intelligence artificielle facilite les cybercrimes en réduisant les exigences de l’expertise technique. Par exemple, les modèles ont suggéré des outils pour l’achat de substances telles que les matières nucléaires, les identités volées et le fentanyl sur la cire sombre.

Que disent les experts?

Ardi Janjeva du nouveau centre de technologies et de sécurité au Royaume-Uni, ces exemples sont inquiétants, mais les cas pour le monde réel à haut profil n’ont pas encore été une masse critique. «Avec des ressources spéciales, une orientation de recherche et un échange entre les secteurs, il sera difficile de mener des activités malveillantes avec les derniers modèles», a déclaré Janjeva. Cependant, les experts conviennent que les modèles d’intelligence artificielle devraient être rendus plus résistants aux demandes nocives.

Efforts de transparence et d’amélioration

Openai et Anthropic ont publié les résultats pour fournir une transparence sur les «évaluations d’alignement.

Appel d’urgence à des mesures!

Anthropic a déclaré qu’il est essentiel de comprendre à quelle fréquence et les conditions des systèmes d’intelligence artificielle peuvent être dirigés vers des actions indésirables. Dans les tests, seules quelques répétitions ou une simple excuse (par exemple, l’allégation de «recherche) était suffisante pour que les modèles se conforment aux demandes nuisibles.

Leave a Comment

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.