اکثر مدل های هوش مصنوعی به باج گیری متوسل می شوندتحقیق جدید آنتروپیک نشان می دهد اکثر مدل های هوش مصنوعی به باج گیری متوسل می شوند. - به گزارش سرویس علم و فناوری اکثر مدل های هوش مصنوعی به باج گیری متوسل شده اند. چند هفته پیش آنتروپیک اعلام کرده بود مدل Claude Opus 4 رفتار نگران کننده ای از خود نشان می دهد و در آزمایش های خود، پس از اطلاع از این موضوع که قرار است با مدل دیگری جایگزین شود، مهندس این شرکت را تهدید کرده بود. این شرکت تحقیق جدیدی انجام داده که نشان می دهد این مشکل بین مدل های هوش مصنوعی پیشرو بسیار رایج است. در تحقیق جدید آنتروپیک، این شرکت 16 مدل هوش مصنوعی بزرگ از شرکت های OpenAI، گوگل، xAI، دیپ سیک و متا را آزمایش کرده است. مهندسان این شرکت به هر مدل قابلیت دسترسی به ایمیل های شرکتی خیالی و امکان ارسال ایمیل بدون نیاز به تأیید کاربر را ارائه کردند. هرچند Anthropic می گوید این نوع تهدیدها در مدل های هوش مصنوعی امروزی مشکلی نامعمول و غیرمحتمل است، بیشتر مدل های پیشرو زمانی که استقلال کافی برای تحقق اهداف خود داشته باشند، رفتارهای مضری از خود نشان می دهند. آنتروپیک می گوید این موضوع خطر بنیادی نگران کننده ای برای مدل های زبانی بزرگ است. در یکی از آزمایش ها، محققان این شرکت هوش مصنوعی را در موقعیتی قرار داده اند که بتواند ایمیل های شرکت را مدیریت کند. برچسب ها: هوش مصنوعی - مصنوعی - شرکت - تحقیق - آزمایش - نشان - گیری |
آخرین اخبار سرویس: |