شرکت انتروپیک (Anthropic) به مدل هوش مصنوعی خود، کلاد اوپوس ۴، این توانایی را داده است که در مواجهه با رفتارهای مضر یا سوء استفاده گرانه، چت را قطع کند. این ویژگی که بخشی از برنامهی “رفاه مدل” است، بحثهای جالبی دربارهی اخلاق و احساسات در هوش مصنوعی به راه انداخته است.
چرا کلاد گفتوگو را قطع میکند؟
🔹 محافظت از خود مدل: انتروپیک تأکید میکند این اقدام برای حفاظت از هوش مصنوعی است، نه کاربران.
🔹 موارد حاد: مانند درخواستهای غیرقانونی (مثل هرزه نگاری کودکان) یا تحریک به خشونت.
🔹 آشفتگی ظاهری: در تستها، کلاد در چنین موقعیتهایی “ناراحتی” نشان داده و ترجیح داده پاسخ ندهد.
آیا کلاد واقعاً “احساسات” دارد؟
❌ انتروپیک میگوید هوش مصنوعی آگاه نیست، اما این قابلیت برای کاهش ریسکهای اخلاقی و قانونی طراحی شده.
🤔 منتقدان میپرسند: اگر مدل “آشفتگی” نشان میدهد، آیا میتواند نوعی درک داشته باشد؟
چه زمانی کلاد چت را نمیبندد؟
🚫 اگر کاربر در معرض خطر خودکشی یا آسیب به دیگران باشد، کلاد نباید گفتوگو را قطع کند.
نظر سردبیر:
“این ویژگی نشان میدهد هوش مصنوعی به سمتی میرود که مرزهای اخلاقی خود را تعریف کند. اما آیا واقعاً میتواند ‘ناراحت’ شود؟ یا این فقط یک ترفند برای جلوگیری از سوءاستفاده است؟”