چشمان متجسس- اگر هوش مصنوعی مرتکب جرم شود، مجازاتش چه خواهد بود؟

در آینده اگر هوش مصنوعی وارد زندگی ما شود، ادغام هوش مصنوعی در سیستم حقوقی یک احتمال قوی است

1922040
چشمان متجسس- اگر هوش مصنوعی مرتکب جرم شود، مجازاتش چه خواهد بود؟

در برنامه ای امروزچشمان متجسس مان از منبع تی‌آرتی نیوزمطلبی را زیر عنوان« اگر هوش مصنوعی مرتکب جرم شود، مجازاتش چه خواهد بود؟» تهییه دیده ایم که در ان راجع به اینکه: «در آینده اگر هوش مصنوعی وارد زندگی ما شود، ادغام هوش مصنوعی در سیستم حقوقی یک احتمال قوی است» بحث خواهیم کرد.

یکی از اهداف دنیای علم، تولید هوش مصنوعی است که خود فکرمیکند، تصمیم میگیرد و حتی باهوش ترازانسان است. ولی این وضعیت نشان میدهد که هوش مصنوعی غیر قابل کنترل خواهد بود. پس اگر هوش مصنوعی مرتکب جرم شود چه کسی پاسخگوی آن می‌شود؟

دکتور ظفر ایچر از دانشکده حقوق دانشگاه مرمره، در مورد اینکه آیا هوش مصنوعی خودمختار زمانی که مستقل از انسان مرتکب جرم شود، مسئول شناخته میشود یا خیر، میگوید:"امروزه هوش مصنوعی خودآگاهی ندارد، بنابراین سطح هوشیاری برای درک تفاوت بین خوب وبد یا درست و غلط را ندارد. به نظر نمیرسد که هوش مصنوعی را درکوتاه مدت و میان مدت مسئول بدانیم. امروزه هیچ مبنای قانونی در جهت تلاش برای پاسخگویی به هوش مصنوعی وجود ندارد. اگر هوش مصنوعی فوق العاده وارد زندگی ما شود، ادغام هوش مصنوعی با سیستم حقوقی باید به عنوان یک احتمال قوی در نظر گرفته شود. در یک چنین حالتی، برعلاوه ای شناختن شخصیت هوش مصنوعی، ممکن است هوش مصنوعی حقوق و تعهداتی داشته باشد و مسئول اعمال خود باشد."

معادل قانونی هوش مصنوعی چه خواهد بود؟

اگر هوش مصنوعی مرتکب جرم شود چه کسی پاسخگو خواهد بود؟ در اینجا مدل های شخصیتی پیشنهاد شده برای نسبت دادن به هوش مصنوعی در قانون را ردیف بندی میکنیم.

1.  مدل رایج امروزی یک مدل نمایندگی غیر مستقیم بوده است.

مدلی که می پذیرد هوش مصنوعی ماهیت انسانی ندارد و ابزاری بی گناه و بدون مسئولیت جرمی است. در یک جنایت ناشی از هوش مصنوعی، ممکن است مسئولیت یک شخص واقعی در پس زمینه موجود بوده باشد.

2.  مدل احتمالی آینده یک مدل پروکسی مصنوعی خواهد بود.

بر اساس این مدل، هوش مصنوعی در وضعیت جانشین انسان دیده می شود. وکالت مصنوعی از نظر حقوق و مسئولیت به دستورات و احکام شخص حقیقی وابسته است. بنابراین بر اساس این مدل، مسئولیت همچنان بر عهده شخص هدایت کننده خواهد بود.

3.  مدلی که احتمالاً در سناریوی مخوف پذیرفته می شود یک مدل انسان مصنوعی خواهد بود.

این بحث برانگیزترین دیدگاه مدل مسئولیت مستقیم است که نشان می دهد هوش مصنوعی را می توان درست مانند انسان مجازات کرد. پذیرفته شده است که هوش مصنوعی که می تواند مانند یک انسان عمل کند، می تواند مسئول رفتار خود نیز بوده باشد.

حال ببینیم، اگر هوش مصنوعی مجازات شود ...

قوانین ومقررات مربوط به مسئولیت جزایی هوش مصنوعی هنوزدردنیا وجود ندارد. یکی از موضوعات مورد بحث این است که اگرمسئولیت جزایی برای هوش مصنوعی درآینده پذیرفته شود، برای هوش مصنوعی دادن چه نوع مجازاتی ممکن خواهد بود؟

در نظام سنتی، مجازات دارای اهداف جلوگیری کننده و بهبودی است. یعنی از یک طرف هدف این است که افراد مجازات را کاملا احساس کنند و دوباره مرتکب جرم نشوند و از طرف دیگر بازدارندگی در جامعه ایجاد شود. با این حال، هیچ یک از انواع مجازات با ویژگی‌های هوش مصنوعی سازگار نیست. به جای مجازات، می‌توان تدابیری برای رفع حالت خطرناک سیستم هوش مصنوعی در نظر گرفت. این اقدامات در نظام حقوقی ما اقدامات امنیتی نامیده میشود. در این راستا میتوان با پیشنهادات جالبی مانند عدم تجدید فعالیتهای سیستم، کاهش نسخه نرم افزار، محدود کردن قابلیت‌های آن و قطع سیستم آن مواجه شد. البته همه این تحولات به معنای آغاز دوره جدیدی در بخش حقوقی خواهد بود.

دوستان عزیزرادیو صدای تورکیه! در برنامه این هفته در مورد اینکه در صورت ارتکاب جرم از سوی هوش مصنوعی چه کسی پاسخگوی آن خواهد بود صحبت کردیم. تا دیدار دربرنامه ای هفته آینده در امان الله پاک باشید.



اخبار مربوطه