چکیده:
نوآوری فناوری استثنایی هوش مصنوعی باعث تولد رباتها شده است. نوآوری رباتها در حال حاضر به عنوان بزرگترین انقلاب فناوری در نظر گرفته میشود که چالشهای جدیدی را پیش روی قانونگذاران برای مقابله با آن قرار داده است. در حال حاضر این ربات ها جایگزین نیروی کار انسانی شدهاند و همچنین چندین فعالیت را با دقت و هوشمندی مناسب انجام میدهند. اما انسان باهوش ترین موجود روی زمین به حساب می آید که دارای ذهنیت منطقی و معقول است و در ادامه این انسان با به کارگیری هوش در آن انسان مصنوعی ساخته است. از آنجایی که تعاملات انسانی با این رباتهای پیشرفته در حال افزایش است، مسائل حقوقی جدید متفاوتی در حال ظهور است و یکی از آنها تعیین مسئولیت این نهاد هوش مصنوعی است. انسانها پدرخوانده رباتها این رباتها را برای هدف خود برنامهریزی کردهاند و در حین انجام فعالیتها، اگر رباتها مرتکب خطای مجرمانه شوند، این سوال پیش میآید که چه کسی مسئول چنین اشتباهی است، برنامهنویس، کاربر یا خود ربات؟ ما هیچ پاسخ قانونی مناسبی در رابطه با این مشکل حقوقی نداریم. هدف اصلی این مقاله بررسی عامل رافع مسئولیت کیفری مستی در قبال هوش مصنوعی رباتهاست. در این تحقیقی ابتدا حالت مستی رباتها تعریف شده و دو حالت عمدی و غیر عمدی بودن طبق قانون مجازات اسلامی بررسی شد. سپس انواع مجازاتها برای رباتها تشریح گردید. نتایج نشان داد که مستی رباتها زمانی میتواند رافع مسئولیت کیفری شود که ربات به صورت غیرارادی هوش خود را به طور موقت زایل کرده باشد و در این حین دچار جرمی شده باشد که از مستی ناشی شده است. حال اگر ثابت شود مستی ربات از طرف عامل انسانی انجام شده است، کلیه مسئولیت کیفری به عهده عامل انسانی خواهد بود.
خلاصه ماشینی:
اگر چنین رباتی نتواند حداقل استانداردهای اخلاقی را که جامعه از آن میخواهد رعایت Artificial intelligence Computerized Robot Kenji Udara کند، برچسب زدن به عنوان یک جنایتکار میتواند به طور مؤثری وظیفه قانون کیفری را برای محکوم کردن رفتار نادرست و کاهش آسیبهای عاطفی که ممکن است به قربانیان انسانی وارد شود، انجام دهد (Osmani, 2020).
چطور ممکن است برای شخص حقوقی که حتی ماهیت طبیعی و فیزیک ندارد و توسط انسانها اداره میشود و از خود هیچ احساسات و عواطفی ندارد و هیچ کنترلی بر اعمال خود ندارد، قانونگذاری شود و در صورت ارتکاب جرم از سوی یک شخص حقوقی، مسئولیت کیفری بر آن تحمیل شود.
یکی از موضوعات این است که ما اغلب شخصیت حقوقی ربات دارای هوش مصنوعی را با این نظر که رباتها باید مانند افراد جامعه شناخته شوند و حقوق بشر به آنها اعطا شود، خلط میکنیم.
مدل های ارائه شده توسط گابریل هالوی را می توان بیشتر توضیح داد (Charney, 2015): بخش چهارم: ارتکاب با مسئولیت دیگر این مدل فرض میکند که ربات هیچ ویژگی انسانی ندارد و چنین موجودی رباتیک به عنوان عامل بی گناه در نظر گرفته میشود.
این سوال همچنان باقی است: وقتی این مدل به کار می رود مسئولیت کیفری خود رباتها چقدر باید باشد؟ دو نتیجه ممکن دارد اول اینکه اگر ربات بدون اطلاع از منع کیفری بی گناه عمل کرده و مرتکب هر جرمی شده باشد، مسئولیتی در قبال آن جرم نخواهد داشت.
حال اگر این غیر عمدی بودن از طرف انسانی بر ربات تحمیل شده باشد که مسئولیت کیفری جرم بر عهده انسان است.