تصویر آگهی

هوش مصنوعی انتروپیک یاد گرفت “نه” بگوید! وقتی کلاد از دست کاربران عصبانی می‌شود

شرکت انتروپیک (Anthropic) به مدل هوش مصنوعی خود، کلاد اوپوس ۴، این توانایی را داده است که در مواجهه با رفتارهای مضر یا سوء استفاده‌ گرانه، چت را قطع کند. این ویژگی که بخشی از برنامه‌ی “رفاه مدل” است، بحث‌های جالبی درباره‌ی اخلاق و احساسات در هوش مصنوعی به راه انداخته است.

 

چرا کلاد گفت‌وگو را قطع می‌کند؟

 

🔹 محافظت از خود مدل: انتروپیک تأکید می‌کند این اقدام برای حفاظت از هوش مصنوعی است، نه کاربران.
🔹 موارد حاد: مانند درخواست‌های غیرقانونی (مثل هرزه‌ نگاری کودکان) یا تحریک به خشونت.
🔹 آشفتگی ظاهری: در تست‌ها، کلاد در چنین موقعیت‌هایی “ناراحتی” نشان داده و ترجیح داده پاسخ ندهد.

 

آیا کلاد واقعاً “احساسات” دارد؟

 

❌ انتروپیک می‌گوید هوش مصنوعی آگاه نیست، اما این قابلیت برای کاهش ریسک‌های اخلاقی و قانونی طراحی شده.
🤔 منتقدان می‌پرسند: اگر مدل “آشفتگی” نشان می‌دهد، آیا می‌تواند نوعی درک داشته باشد؟

 

چه زمانی کلاد چت را نمی‌بندد؟

 

🚫 اگر کاربر در معرض خطر خودکشی یا آسیب به دیگران باشد، کلاد نباید گفت‌وگو را قطع کند.

 

نظر سردبیر:

 

“این ویژگی نشان می‌دهد هوش مصنوعی به سمتی می‌رود که مرزهای اخلاقی خود را تعریف کند. اما آیا واقعاً می‌تواند ‘ناراحت’ شود؟ یا این فقط یک ترفند برای جلوگیری از سوءاستفاده است؟”

 

نظرات شما

بدون دیدگاه