پنجشنبه ۹ اسفند ۱۴۰۳ - ۱۵:۳۲
آیا ربات‌های هوش مصنوعی می‌توانند از مجازات فرار کنند؟

حوزه/ با گسترش فناوری هوش مصنوعی، سوالات فقهی و حقوقی درباره مسئولیت‌پذیری ربات‌ها و امکان تبرئه آن‌ها مطرح شده است. آیا ربات‌ها می‌توانند مانند انسان از دفاعیات موجه مانند طفولیت، جنون یا اشتباه موضوعی استفاده کنند؟ این موضوع در برنامه فقه پویا مورد بررسی قرار گرفت.

به گزارش خبرگزاری حوزه، برنامه فقه پویای رادیو معارف در ۹ جلسه با حضور حجج اسلام والمسلمین سخاوتیان و عندلیب به بررسی فقهی و حقوقی ابعاد گوناگون هوش مصنوعی پرداخته که رسانه رسمی حوزه به انتشار محتوای این برنامه‌ها در شماره های گوناگون پرداخته و در این مطلب به انتشار جلسه ششم خواهیم پرداخت.

مجری: بسم الله الرحمن الرحیم. عرض سلام و ادب دارم.

در برنامه‌های گذشته گفتیم هوش مصنوعی تکنولوژی است که عملکردی شبیه به انسان یا فراتر از عملکرد انسان پیدا می‌کند و غالباً به عنوان شاخه‌ای از علوم کامپیوتر شناخته می‌شود. با توجه به گسترش و کاربردهای فراوانی که دارد، می‌طلبد که جایگاه فقهی و حقوقی آن مورد بحث و گفتگو قرار بگیرد. گفتیم که ضرر و زیان گاهی منتسب به یک یا چند عامل به طور مستقیم است که به آن عامل مباشر و یا یک یا چند عامل غیرمستقیم است که به آن سبب گفته می‌شود. هوش مصنوعی را از جهت فعالیت‌های شبیه به انسان به دو دسته‌ی قوی و ضعیف تقسیم کردیم و گفتیم که هوش مصنوعی قوی از نظر فقهی وجود خارجی نداشته و هوش مصنوعی ضعیف در صورت ارتکاب جرم از جهت فقهی و حقوقی ضامن نیست. درباره‌ی شخصیت مستقل حقیقی و یا حقوقی سیستم‌های هوش مصنوعی بحث و گفتگو کردیم و گفتیم از آنجایی که نگاه ما به هوش مصنوعی متفاوت است، بسته به نگاه ما اعطای شخصیت به هوش مصنوعی متفاوت خواهد بود. درباره‌ی جرایم عمد هوش مصنوعی صحبت کردیم که در صورت ارتکاب مجازات متوجه چه کسی است؟ هوش مصنوعی یا مالک و سازنده‌ی آن؟ از نظر فقهی چون اراده و اختیار در هوش مصنوعی که حاصل آن قصد و نیّت است رخ نداده است و لذا مجازات متوجه آن نیست، اما از جهت حقوقی بیان شد که اگر مالک یا سازنده‌ی آن ربات قصد تخریب داشته باشد، از باب أقوی بودن سبب از مباشر سازنده‌ی آن مجرم و در صورت عدم قصد مالک و سازنده‌ی آن نسبت به تخریب مباشر مجرم شناخته می‌شود.

اما بحث امروز ما درباره‌ی قابلیت اعمال دفاعیات عام در خصوص سیستم‌های دارای هوش مصنوعی است. این سؤال را از جناب آقای دکتر عندلیب می‌پرسم که آیا دفاعیات موجه جهت تبرئه شدن سیستم‌های دارای هوش مصنوعی از نظر حقوقی وجود دارد یا خیر؟

- آقای عندلیب

ما در مباحث حقوقی بعد از این‌که مباحث مسئولیت کیفری را داریم، اصطلاحاً یک بحثی تحت عنوان دفاعیات داریم که در بحث دفاعیات دو نوع دفاع را می‌توانیم انجام دهیم و آن بسته به این دارد که ما با دو مبحث آشنایی داشته باشیم که یکی موانع مسئولیت کیفری است که اصطلاحاً این مانع اجازه نمی‌دهد مسئولیت کیفری محقق شود. یک دسته از مباحث هم عوامل موجهه‌ی جرم هستند که اصطلاحاً به این‌ها رافع می‌گویند. آن دسته‌ی اول دافع هستند و اصلاً اجازه‌ی تحقق مسئولیت کیفری را نمی‌دهند، دسته‌ی دوم رافع هستند که در ادبیات حقوقی به آن‌ها عوامل موجهه‌ی جرم می‌گویند. یعنی جرم محقق است و مرتکب جرم هم مسئولیت کیفری دارد، اما یک عامل موجهی هست که ما به او مسئولیت کیفری ندهیم.

اجازه می‌خواهم که در بحث موانع مسئولیت کیفری بحث را آغاز کنیم. در مباحث موانع مسئولیت کیفری، اولین مثالی که هم فقها و هم حقوقدانان دارند بحث طفولیت است که خود طفل بودن یکی از موانع مسئولیت کیفری است. اما سؤالی که ما در اینجا داریم این است که آیا اساساً در سیستم‌های دارای هوش مصنوعی می‌توان آن‌ها را همانند یک طفل قلمداد کرد؟ تعریفی که حقوقدانان غربی دارند این است که می‌گویند سیستم‌های دارای هوش مصنوعی دو قسم هستند؛ یک سیستم‌های دارای هوش مصنوعی ثابت که دیگر تحول و تکاملی ندارند، یک‌سری هم سیستم‌های دارای هوش مصنوعی توسعه‌پذیر هستند. در این توسعه‌پذیرها می‌گویند از زمانی که هوش مصنوعی فعالیت خودش را آغاز می‌کند تا رسیدن به آن زمان اصطلاحاً بلوغ و تکامل یک زمانی را طی می‌کند و حتی برای آن ساعت هم می‌گویند. می‌گویند سنی که برای هوش مصنوعی به تکامل رسیده هست، ۲۶۴ ساعت پس از فعالیت است. می‌گویند که کمتر از ۲۶۴ ساعت فعالیت هوش مصنوعی دارای ظرفیت‌های روانی تصمیم‌گیری نیست. بنابراین آن دوران زیر ۲۶۴ ساعت را دوران طفولیت سیستم‌های دارای هوش مصنوعی می‌دانند و نتیجه این می‌شود که اگر ربات هوش مصنوعی زیر ۲۶۴ ساعت مرتکب جرمی شود در واقع یک طفل هوش مصنوعی است که جرمی را مرتکب شده و ما می‌توانیم با ادبیات حقوقی و فقهی خودمان آن را یک طفل قلمداد کنیم و مسئولیت کیفری را شامل حال خود آن سیستم ندانیم و به سراغ سازنده، کاربر و طراحانی برویم که آن سیستم داشته است.

دومین عاملی که ما در زمره‌ی عوامل مسئولیت کیفری یا موانع مسئولیت کیفری داریم، فقدان قوّه‌ی خودکنترلی است که غربی‌ها به آن Loss of self-control می‌گویند که اگر این قدرت را برای کنترل خودش نداشته باشد، مسئولیت کیفری هم ندارد. توجه بفرمایید این موضوع به این معنا است که باید ببینیم آیا هوش مصنوعی اساساً قوّه‌ی خودکنترلی دارد یا ندارد؟ باز پایه‌ی بحث ما به این برمی‌گردد که ما سیستم هوش مصنوعی را یک سیستم هوش مصنوعی توسعه‌پذیر و اصطلاحاً قوی بدانیم که خودش یک درک و ادراکات و فعل و انفعالات سیستمی دارد. در همین زمینه می‌گویند اگر این سیستم هوش مصنوعی می‌توانست خودش را در وضعیتی قرار ندهد که مرتکب جرم بشود و این کار را نکرد و خودش را در وضعیتی گذاشت که مرتکب جرم شد، مسئولیت کیفری شامل این می‌شود. ما شبیه به این را در بحث‌های فقهی داریم که می‌گویند: «الامتناع بالإختیار لا ینافی الإختیار». یعنی هوش مصنوعی که الان در جایی آمده که نباید حضور پیدا می‌کرد و الان دچار یک اشتباه شده و دیگر کنترل خودش را از دست داده و دارد به کسی صدمه می‌زند، چون ورود و آمدنش به اینجا ورود اختیاری بوده است. این امتناعی که الان حاصل شده منافی الاختیار نیست. مرحوم شیخ انصاری در رسائل وقتی این بحث اختیار و اصطلاحاً امتناع اختیاری را مطرح می‌فرماید، می‌گوید: «یرجع بالأخره إلی الإختیار». می‌گوید این امتناعی که الان برای این فرد حاصل شده، بالأخره به یک اختیار سابق برمی‌گردد. یعنی خودش با دستان خودش، خودش را در این وضعیت انداخته است. پس مسئول است. این هم دومین عاملی است که باید به آن توجه داشته باشیم.

سومین عاملی که گفته می‌شود بحث جنون است که ما در مباحث اشخاص حقیقی می‌گوییم که خود جنون یکی از موانع مسئولیت کیفری است. آیا در مورد سیستم‌های هوش مصنوعی اساساً می‌توانیم این حرف را بزنیم؟ می‌گوییم: بله. ما اگر جنون را به معنای اختلال عملکردی سیستم فکری بگوییم که البته خود این تعاریف زیادی دارد، ولی در مورد هوش مصنوعی می‌گوییم که یک اختلالی در سیستم تجزیه - تحلیل هوش مصنوعی به وجود آمده است و این شبه‌جنون در انسان‌های عادی است. به این شرط که ما این اختلال را در حدی بدانیم که دیگر اختیار آن سیستم هوش مصنوعی را تضعیف کند و از بین ببرد. یعنی باید جنون و آن اختلال در اینجا به حدی برسد که آن قوّه‌ی عاقله و تصمیم‌گیر هوش مصنوعی را کلاً کات کند و کنار بگذارد.

چهارمین موضوعی که ما در مباحث موانع مسئولیت کیفری در مورد اشخاص می‌گوییم، حالت مستی است که حالتی است که فرد در حالت طبیعی نیست. آیا در مورد هوش مصنوعی این قابل تجزیه و تحلیل هست یا نه؟ بله.

من در اینجا یک مثالی می‌زنم؛ شما یک ربات نظامی را تصور بفرمایید که مبتنی بر سیستمی هوش مصنوعی ساخته شده است، این تحت حمله‌ی شیمیایی یا شبه‌شیمیایی قرار می‌گیرد و این حمله‌های شیمیایی باعث می‌شود که گازهای سمی سیستم هوش مصنوعی را دچار اختلال کنند، شبیه به همان اختلال عملکردی که مسکرات و مشروبات الکلی روی سیستم یک انسان می‌گذارد که او دچار توهم و اشتباه تصمیم‌گیری می‌شود و اصلاً ممکن است که خودش را هم از بین ببرد. در اینجا هم شبیه به همین را حقوقدانان غربی می‌گویند. می‌گویند که ممکن است چنین رباتی در این فضا قرار بگیرد، سیستم عملکردی آن به خاطر استنشاق گازهای سمی و شیمیایی دچار یک توهم شود و اتفاقاً یک فردی را که در حقیقت شهروند عادی بوده به عنوان دشمن تلقی کند و آن را از بین ببرد. بنابراین در سیستم‌های هوش مصنوعی هم می‌توانیم این موضوع را ببینیم. من عرض کنم که این بحث ادامه دارد و ان‌شاءالله در فرصت بعدی در خدمت‌تان هستم.

مجری: متشکرم. جناب آقای دکتر سخاوتیان، از نظر فقهی به چه شکلی است؟ آیا می‌توان دفاعیات موجه یا مشروعی را جهت تبرئه‌ی سیستم‌های دارای هوش مصنوعی از نظر فقهی اعمال دانست یا خیر؟

- آقای سخاوتیان

ما وقتی می‌خواهیم دفاعیات را به هوش مصنوعی نسبت دهیم و اصطلاحاً بگوییم که اینجا دافع یا رافع شد؟ ابتدا باید ببینیم که اصلاً خود جرم به چه کسی منتسب می‌شود؟ بله، ما اگر هوش مصنوعی را یک چیز مستقلی در بیرون بدانیم، کمااین‌که بسیاری از افراد این‌گونه تصور دارند، می‌توانیم دفاعیاتی را هم از حیث رافع و هم از حیث دافع به آن نسبت دهیم، اما مطلب این است که با توجه به مبانی که در جلسات گذشته بیان کردیم، هوش مصنوعی عملاً هیچ‌گاه جدا از انسان معنا پیدا نمی‌کند. آنچه که امروزه تحقق دارد، هوش مصنوعی ضعیف است و هیچ‌کسی هم نمی‌تواند آن را انکار کند و بگوید امروز هوش مصنوعی قوی تحقق دارد. نخیر، آنچه که تحقق دارد هوش مصنوعی ضعیف است و هوش مصنوعی قوی شاید در آینده تحقق پیدا بکند. این چیزی است که خیلی از بزرگان در عرصه‌ی هوش مصنوعی آن را بیان می‌کنند و ما با مبانی که در جلسات گذشته بیان شد، توضیح دادیم که اگر بخواهیم هوش مصنوعی قوی را تصور کنیم، باز هم مستقل از انسان معنا نخواهد شد. استاد قائمی‌نیا در اینجا یک نظریه‌ای دارند که اصطلاحاً به آن هوش مصنوعی تطفلی می‌گویند. تطفلی یعنی چه؟ یعنی هوش مصنوعی مانند طفلی است. هر قدر هم بزرگ شود و رشد کند، مانند یک طفلی است که دستش در دست پدرش است و پدرش هم در اینجا همان انسان است که خالق و مبدع این دستگاه است. حالا این دستگاه ممکن است به صورت ربات یا هر نوع فناوری دیگر باشد. مستقل از انسان معنا نمی‌شود. پس این بحث دافع و رافع در جرایم و دفاعیات هوش مصنوعی باید به یک موجودی که بر این هوش مصنوعی سیطره دارد نسبت داده شود. خودبه‌خود به مرحله‌ی قبل می‌رود. در مرحله‌ی قبل در اینجا یک کاربر داریم و ماقبل کاربر هم یک طراح و بهینه‌ساز داریم. باید ببینیم این جرمی که صورت گرفت ابتدا به کدام‌یک از این‌ها منتسب می‌شود، از باب همان سبب أقوایی که قبلاً بیان کردیم که آیا مباشر در اینجا أقوی می‌شود یا سبب أقوی می‌شود؟ هر کدام که أقوی شد، دافع و رافع باید به آن نسبت داده شود، نه به این هوش مصنوعی که خودش به عنوان یک ابزار در اختیار آن شخص است. اگر این جرم ناشی از آن طراحی و بهینه‌سازی باشد، پس منتسب به آن می‌شود، اگر این جرم ناشی از کاربر باشد، آن طراح و بهینه‌ساز خطایی نداشته، بلکه این کاربر بود که در استفاده از این دچار خطا شد. در اینجا جرم به این کاربر انتساب پیدا می‌کند. پس این کاربر باید به عنوان دافع یا رافع برای خودش دفاعیات ارائه کند.

البته باز هم این تذکررا می‌دهیم، همان‌طوری که در جلسات گذشته گفتیم باز هم آن را بیان می‌کنیم و در آینده هم بیشتر بیان خواهیم کرد تا دوستان به این نکته دقت داشته باشند. ما وقتی که صحبت از هوش مصنوعی می‌کنیم، هوش مصنوعی فناوری داده‌ها و الگوریتم‌ها است. تمام تلاش در هوش مصنوعی این است که کاری شبیه به ذهن انسان انجام دهد. البته در یک تعریف این است و برخی هم می‌گویند که کاری شبیه به هوشمندی نظام طبیعت انجام دهد. اگر بخواهیم تمام این‌ها را انجام دهیم، ابتدا باید ببینیم که ذهن چیست، مغز چیست؟ یعنی آن چیزی که انسان در اختیار دارد و با آن تفکر می‌کند و به تبع آن دست به عمل می‌زند، حالا این عمل ممکن است منجر به جرم شود و ممکن است نشود، ماقبل آن یک فکری هست که آن فکر تبدیل به این فعل می‌شود. یک اندیشه‌ای هست که آن اندیشه تبدیل به کنش، تبدیل به واکنش و رفتار می‌شود. در اینجا باید ببینیم آنچه که سبب می‌شود چیست؟ اگر ذهن است، اگر مغز است، تفاوت ذهن و مغز در چیست؟ در اینجا چند تا دیدگاه هست و آن دیدگاه رایج که در عرصه‌ی هوش مصنوعی تقریباً به رسمیت شناخته شده این است که ذهن همان مغز است و یا در بهترین حالت بگوییم که ذهن عمل مغز است. اگر این را بپذیریم خیلی شبیه به انسان می‌شود، حالا درست است یا نه، باید در برنامه‌ی نقد و نظر و در برنامه‌های مشابه این به آن بپردازیم، ولی به‌هرحال برخی این مبنا را پذیرفته‌اند. در ذهن انسان، در مغز انسان یک پدیده‌ای به اسم نورون‌های عصبی داریم که آن را به اسم پرسپترون‌ها الگوبرداری می‌کنند و در هوش مصنوعی تلاش دارند پیاده کنند. آیا واقعاً این تحقق دارد یا ندارد بحث‌های بعدی است، چون در نگاه ما و مبنای ما این است که هوش مصنوعی هر قدر هم که قدرت پیدا کند صرفاً یک ابزار است. این ابزار شبیه به مغز شاید کار کند، مغز هم ابزار است، معدّ است، اطلاعات را جمع‌آوری و پردازش می‌کند، اما آنچه که واقعاً مُدرک است و از معدّ فراتر می‌رود، ذهن انسان است و ذهن انسان هم تحت تدبیر روح انسان است و ما وقتی که انسان را دارای روح می‌دانیم، تا زمانی که هوش مصنوعی دارای روحی شبیه به روح انسانی نشود، چیزی مستقل از انسان نخواهد بود، لذا تمام این جرایم منتسب به موجودی می‌شود که دارای روح انسانی باشد، تدبیر روح انسانی را داشته باشد و به تبع آن ذهن انسانی داشته باشد تا بتواند تدبیر کند. اما در مرتبه‌ی مغز آیا تسامحتاً می‌توان پذیرفت یا نه، باید به پژوهش‌های دقیق‌تر واگذار کنیم.

مجری: متشکرم. آقای دکتر عندلیب، ظاهراً موانع مسئولیت کیفری باقی مانده، در خدمت‌تان هستیم.

- آقای عندلیب

قبل از این‌که ادامه‌ی موانع مسئولیت کیفری را عرض کنم، اولین مانعی که ما عرض کردمی بحث طفولیت بود، شاید برای شنوندگان ما این سؤال پیش آید که آیا به صورت مطلق طفل مجازات نمی‌شود؟ یا مجازات او متفاوت است؟ من اجازه می‌خواهم یک نگاهی به قانون مجازات اسلامی خودمان داشته باشیم، چون من عرض کرده‌ام که ما فعلاً درباره‌ی سیستم‌های هوش مصنوعی تقنین و قانون‌گذاری مستقلی نداریم، و فعلاً باید از عمومات استفاده کنیم و مباحث مطرح شود، همچنین که این بحث در مباحث کیفری مفید فایده است. ماده‌ی ۸۸ می‌گوید: درباره‌ی اطفال و نوجوانانی که مرتکب جرایم تعزیری می‌شوند - جرایم تعزیری جرایمی است که عموماً در بیان شارع مجازات خاصی برای آن‌ها بیان نشده و حکومت به اقتضای زمان و مکان مجازات تعیین می‌کند - و سن آن‌ها در زمان ارتکاب ۹ تا ۱۵ سال تمام شمسی باشد. یعنی قانون‌گذار ایران برای بچه‌های ۹ تا ۱۵ ساله هم مجازات در نظر می‌گیرد. می‌گوید دادگاه یکی از تصمیمات زیر را اتخاذ می‌کند. یکی که تصمیم به والدین یا اولیاء یا سرپرست قانونی است، معرفی به مددکار اجتماعی و روانشناس، معرفی به یک مؤسسه‌ی آموزشی و فرهنگی، اقدام لازم جهت درمان، جلوگیری از معاشرت و ارتباط مضر با دیگران، جلوگیری از رفت‌وآمد طفل یا نوجوان به محل‌های معین، تسلیم به اشخاص حقیقی یا حقوقی، نصیحت به وسیله‌ی قاضی، اخطار و تذکر کتبی و سخت‌ترین مورد هم نگهداری در کانون اصلاح و تربیت است. هر چند این‌ها جنبه‌های تربیتی دارد ولی در نگاه حقوقی به ‌آن‌ها مجازات می‌گوییم ولی مجازات‌های متناسب با اطفال است. بنابراین برای شنوندگان ما شبهه ایجاد نشود که بچه‌ها به صورت مطلق مجازات ندارند، تبصره‌ی ۲ این ماده هم جالب است که می‌گوید: هر گاه نابالغ مرتکب یکی از جرایم موجب حد یا قصاص کرد، در صورتی که از ۱۲ تا ۱۵ سال قمری داشته باشد، به یکی از اقدامات مقرر در بندهای ت و یا ث همین ماده محکوم می‌شود و در کانون اصلاح و تربیت نگهداری می‌شود.

بنابراین این نکته در نظر ما باشد که اگر ما از مانع بودن طفولیت می‌گوییم به این معنا نیست که کلاً مجازاتی ندارد. قانون‌گذار مجازات متناسب با حال خودش را دیده است.

عامل دیگری که در موانع مسئولیت کیفری بحث می‌شود، اشتباه موضوعی است. همان‌طور که مستحضر هستید، ما در فقه دو تا موضوع و یا دو تا شبهه داریم که یکی شبهه‌ی موضوعی و یکی هم شبهه‌ی حکمی است که گاه فرد در موضوع اشتباه می‌کند و گاه هم در حکم اشتباه می‌کند. دقیقاً ما همین بحث را از فقه در حقوق هم داریم که این فرد مرتکب دچار اشتباه موضوعی یا دچار اشتباه حکمی می‌شود. در مورد سیستم‌های دارای هوش مصنوعی، این چطور قابل تصور است؟ تصور بفرمایید که ما یک سربازی داریم که مبتنی بر هوش مصنوعی ساخته شده است. این سرباز در میدان نبرد باید نسبت به سربازان دشمن کار دفاعی یا تهاجمی انجام دهد، یکی دیگر از سربازان هوش مصنوعی و یا یکی از انسان‌ها، چون شاید در آینده شاهد جنگ‌های ترکیبی باشیم که هم انسان‌ها هستند و هم هوش مصنوعی‌ها و ربات‌ها هستند. در اینجا یکی از سربازهای انسانی ما و یا هوش مصنوعی ما دقیقاً خودش را مشابه سربازان دشمن کرده است و این ربات هوش مصنوعی ما دچار اشتباه موضوعی می‌شود و فکر می‌کند که این همان است. سرباز خودی را دشمن فرض می‌کند و بر همین اساس اقدام می‌کند. شبیه به این را در مورد انسان‌ها داریم. مثال زدم و یک پرونده‌ی قضایی هم که من چند سال پیش در مرکز تحقیقات مطالعه می‌کردم این بود که یک فردی خودش می‌خواست فرد دیگری که قاتل هست را قصاص کند. یعنی از اولیاء دم بود، هر چند که این خودش خلاف قانون است ولی از نظر شرعی نسبت به او و از نظر قانونی مهدور الدم است، البته به خاطر نظم اجتماعی قانون‌گذار برای این فرد که خودسرانه اقدام به قصاص نکند مجازات تعیین کرده است ولی دیگر قصاص نمی‌شود. یعنی اگر کسی از اولیاء دم، کسی که نسبت به او مهدور الدم حساب می‌شود، آن را از بین ببرد، مجازات دارد ولی دیگر قصاص نمی‌شود، چون مهدور الدم را از بین برده است. این بنده خدا به خانه‌ی آن کسی می‌رود که اثبات شد مهدور الدم است، درِ خانه را می‌زند و فرد دیگری که برادر یا پسرعموی او بوده و شباهت زیادی به این آقا داشته و هوا هم تقریباً تاریک بوده، می‌آید و درب را باز می‌کند و این آقا فکر می‌کند که خود قاتل است و همان‌جا ایشان را متأسفانه می‌کند. اینجا یک اشتباه موضوعی است، برای او شبهه شده است. البته بین قضات بحث شد که این رفتار او چگونه رفتاری است، کوتاهی کرده یا نکرده است؟ من وارد آن بحث‌ها نمی‌شوم، فقط می‌خواهم برای اشتباه موضوعی مثال بزنم که این همان‌طور که در مردم عادی وجود دارد، در سیستم‌های هوش مصنوعی هم امکان دارد و شاید در اینجا اختلال بیشتر و قوی‌تر هم باشد.

نکته‌ی بعدی و ششمین عاملی که ما به عنوان مانع مسئولیت کیفری می‌دانیم، اشتباه حکمی است. اشتباه حکمی برداشت نادرست از قانون یا جهل به قانون است. خب حقوقدانان یک جمله‌ی معروفی دارند که جهل به قانون رافع مسئولیت نیست. فقها هم می‌فرمایند که؛ جهلی که ناشی از تقصیر انسان و کوتاهی انسان باشد عذر نیست. فقها این را عذر نمی‌دانند، حقوقدانان هم می‌گویند که وقتی قانون انتشار پیدا کرد و ابلاغ شد، چه شما بخوانید و چه نخوانید، جهل شما رافع مسئولیت نیست.

در اینجا یک بحثی دارند که اگر برداشت نادرست از قانون بود و اگر نسبت به قانون بی‌اطلاع بود چه می‌شود؟ من برای این‌که باز بحث شنوندگان ما روی مباحث حقوقی تمرکز کند، می‌گویم. ما در جرایم حدی می‌گوییم متهم و مرتکب هم باید علم به موضوع داشته باشد و هم باید علم به حکم داشته باشد. برای همین قضات محترم وقتی که می‌خواهند در جرایم حدی تفهیم اتهام کنند، هم موضوع را می‌پرسند و هم حکم را می‌پرسند که می‌گویند آیا شما می‌دانستید که این مسئله در شریعت حرام است یا نه؟ در جرایم حدی این‌طور است. این به خاطر همین شبهه است که اگر مرتکب شبهه‌ی موضوعی یا حکمی داشته باشد نمی‌توان بر او مسئولیتی را بار کرد. در سیستم‌های دارای هوش مصنوعی هم همین را می‌گوییم. می‌گوییم که اگر سوابق این سیستم را بررسی کنیم و ببینیم که این سیستم دارای هوش مصنوعی در آن دیتاها و در آن اطلاعاتی که داشته، نسبت به این قانون آگاهی نداشته است. برای او تعریف نشده است که این جرم است. بنابراین ما در اینجا نمی‌توانیم سیستم دارای هوش مصنوعی را در اینجا مجازات کنیم. چون در آن داده‌ها و اطلاعات این برای او به عنوان یک جرم معرفی نشده بود.

مجری: متشکرم. جناب آقای دکتر سخاوتیان، با توجه به چیزی که در قسمت قبل گفتیم، آیا قابلیت اعمال این دفاعیات عام در سیستم‌های هوش مصنوعی از نظر فقهی وجود دارد یا خیر؟

- آقای سخاوتیان

در قسمت قبل بیان کردیم که اصل آن را قبول نداریم. چرا؟ چون ما معتقدیم که هوش مصنوعی دارای اختیار مستقل از انسان هرگز نخواهد شد. ولی با این پیش‌فرض که حالا اگر بشود چه می‌شود؟ ببینید چیزی که غربی‌ها دارند بیان می‌کنند، خودش دچار خودتناقضی است. کمااین‌که جناب استاد دکتر عندلیب هم در انتهای صحبت‌هایشان اشاره‌ای به این مطلب داشتند. ایشان در انتهای صحبت چه فرمودند؟ گفتند که؛ این مطلب به عنوان دیتا و به عنوان داده در هوش مصنوعی به عنوان جرم تعریف نشده بود. وقتی که تعریف نشده بود پس مجرم نیست. این جمله دقیقاً مناقض با هوش مصنوعی قوی است. چرا؟ گفتیم که هوش مصنوعی قوی کلان‌داده‌ای را به صورت کامل دارد، الگوریتم‌هایش کامل است و دقیقاً مثل انسان کار می‌کند. تنها تفاوتش با انسان در چیست؟ انسان آن کلان‌داده را ندارد و یا تحت تأثیر شرایط محیطی قرار می‌گیرد و دچار اختلال می‌شود، بیمار می‌شود و الخ، در نتیجه خطایی در محاسبه از او سر می‌زند، اما هوش مصنوعی قوی به یک کلان‌داده‌ای دسترسی دارد و الگوریتم‌هایی که متناسب با خودش است، لذا این هوش مصنوعی قوی با آن کلان‌داده‌ها و با آن الگوریتم‌هایی که در آن وجود دارد، دقیقاً می‌داند که در چه موقعیتی باید قرار بگیرد و در چه موقعیتی نباید قرار بگیرد. این‌که بگوییم در یک موقعیتی قرار گرفت و بیمار شد، در یک موقعیتی قرار گرفت و دچار اختلال موضوعی شد، در یک موقعیتی قرار گرفت و دچار اختلال حکمی شد، این اصلاً هوش مصنوعی قوی نیست. چرا؟ چون آن کلان‌داده‌ها شکل نگرفته است. اصلاً لازمه‌ی پیدایش هوش مصنوعی قوی آن کلان‌داده‌ها است. اختلال موضوعی به این معنا است که هوش مصنوعی قوی شکل نگرفت. چرا؟ چون کلان‌داده‌هایش کامل نیست و یا اگر کلان‌داده‌هایش کامل باشد، الگوریتم‌هایش کامل نیست.

مجری: آقای دکتر، یک سؤال دارم؛ الان هوش مصنوعی با توجه به داده‌هایی که در دنیای اطلاعات وجود دارد، یعنی با توجه به دیتاهایی که در دنیا وجود دارد باید تحلیلی انجام دهد، این هوش مصنوعی که شما می‌فرمایید تحت عنوان هوش مصنوعی قوی وجود ندارد، چطور با آن داده‌ها ارتباط نمی‌گیرد و احکام را به عنوان... .

ببینید هوش مصنوعی توصیه‌پذیر یا توضیح‌پذیر Explainable AI که مطرح می‌شود، یک هوش مصنوعی یادگیرنده است. یعنی شما ۲-۳ بار یک کاری را انجام دهید، با این الگوی تکرار خودش یک مطلبی را یاد می‌گیرد و دفعه‌ی بعد هم انجام می‌دهد. این‌طور هست و ما این را انکار نمی‌کنیم، این توان یادگیری را دارد، کمااین‌که در آزمون تورینگ هم مطرح می‌شود. اما این تکرارها و یادگیری‌ها نیاز به یک راهبر و اپراتور دارد. آن اپراتور انسانی است که این تکرارها را تنظیم می‌کند و اگر خودش بخواهد تنظیم کند در یک شرایطی قرار می‌گیرد که اصطلاحاً به آن عدم اطمینان می‌گویند و تمام بزرگان هوش مصنوعی اقرار دارند که در شرایط عدم اطمینان هوش مصنوعی توقف می‌کند تا آن اپراتور یا آن راهبر این را برای او تعریف کند. چرا عدم اطمینان می‌شود؟ چون یک بار اتفاق افتاد و ۲-۳ یا ۴ بار نیست. حتی گاهی اوقات ۲-۳ یا ۴ بار هم جای شک دارد.

ما در جلسات اولیه بیان کردیم که هوش مصنوعی تجلی یک فلسفه‌ی خاص است و کاملاً هم درست است، آن فلسفه هم فلسفه‌ی تحلیلی است. اگر ما بخواهیم هوش مصنوعی را با توجه به فلسفه‌ی قاره‌ای تحلیل کنیم، اصلاً چیزی به اسم تکرار معنا ندارد که او بخواهد از تکرار یاد بگیرد. یعنی دقیقاً که دارد یاد می‌گیرد، با نگاه فلسفه‌ی قاره‌ای اشتباه دارد یاد می‌گیرد. چرا؟ چون در فلسفه‌ی قاره‌ای بیان می‌شود که هر پدیده‌ای نسبت به خودش جدید است و دومی ندارد. وقتی من که الان در اینجا نشسته‌ام، با منِ ۱۰ دقیقه دیگر متفاوت باشم، اصلاً چیزی به نام تکرار معنا ندارد که این بخواهد الگو بگیرد. یعنی اگر ما بخواهیم با نگاه فلسفه‌ی قاره‌ای وسط بیاییم، کار خیلی گره می‌خورد. ما وارد این فضا نمی‌شویم. در نگاه تبیینی خودش می‌مانیم که همان فناوری در همان بستری است که شکل گرفت. وقتی که کلان‌داده‌هایش ناقص باشد، اشتباه موضوعی شکل می‌گیرد. کمااین‌که جناب آقای دکتر عندلیب اشاره کردند، وقتی که کلان‌داده‌هایش ناقص باشد، اشتباه حکمی شکل می‌گیرد. وقتی که کلان‌داده‌اش کامل باشد، الگوریتمش هم درست باشد، دیگر اشتباه حکمی و اشتباه موضوعی در هوش مصنوعی معنا نخواهد داشت. وقتی که معنا نداشته باشد، اگر جرمی از آن سر زد، این جرم ناظر به چه کسی خواهد شد؟

- آقای عندلیب

البته این‌که اطلاعات داشته باشد، با این‌که بعداً بتواند تصمیم بگیرد، تلازمی با هم ندارد. نکته این است که زمانی شما می‌گویید اطلاعات اولیه دارد ولی بعداً قدرت تجزیه و تحلیل دارد، این قوی بودن بعدی را نفی نمی‌کند، انسان هم همین‌طور است. انسان هم وقتی به مدرسه می‌رود یاد می‌گیرد، در دانشگاه تحصیل می‌کند، اطلاعات را جمع می‌کند، ولی در مرحله‌ی عمل ممکن است در این تجزیه و تحلیل‌ها یا اشتباه موضوعی یا اشتباه حکمی کند.

مجری: مثل همان ۲۶۴ ساعتی که شما فرمودید.

بله، مثل ۲۶۴ ساعتی که عرض کردم. یعنی امکان این را دارد. انسان هم مختار است. من با تقسیم مسئولیت موافق هستم، ممکن است ما در این کاوش‌هایی که می‌کنیم به این نتیجه برسیم و بگوییم که تقسیم مسئولیت کنیم، سازنده‌ای که این اطلاعات را داده ناقص داده، اما این هوش مصنوعی قوی در زمان تجزیه و تحلیل، خودش هم نقصان و تقصیری دارد، تقسیم مسئولیت کنیم.

- آقای سخاوتیان

ببینید آقای دکتر، شما بحث هوش مصنوعی ضعیف را مطرح می‌کنید و نتیجه‌ی هوش مصنوعی قوی را می‌گیرید. این دقیقاً تناقض است. می‌دانید چرا؟ ببینید وقتی شما می‌گویید اطلاعات و داده‌ها ناقص است، هنوز هوش مصنوعی قوی نیست. اگر داده‌ها و اطلاعات کامل باشد، طراحی‌ها کامل باشد، شاید هوش مصنوعی قوی بشود. این‌که الان داده‌هایی را دارد، فرض کنیم که اصلاً کلان‌داده‌ی اصلی و مطلوب شکل گرفته است، زمانی که شکل گرفت، اگر آن الگوریتم‌ها اختلال داشته باشند، هنوز هوش مصنوعی قوی نشده است.

- آقای عندلیب

حالا ممکن است یک اشتباهی باشد، چون به ۱۰۰ که نرسیده است.

- آقای سخاوتیان

تعریف هوش مصنوعی قوی چیست؟ هوش مصنوعی است که از انسان مستقل می‌شود، یعنی تمام کارها را مثل انسان می‌تواند انجام دهد و نیازی به اپراتور انسانی نباشد. همین که نیاز به اپراتور انسانی و راهبر انسانی پیدا کرد، دیگر هوش مصنوعی قوی نیست. یعنی خودش دارد یاد می‌گیرد. شما در تعریف هوش مصنوعی قوی چه می‌گویید؟ می‌گویید هوشی است که همانند انسان کار می‌کند و دوم این‌که مستقل از انسان هم باشد. ما در تعریف خودمان گفتیم که مستقل از انسان را قبول نمی‌کنیم ولی همانند انسان را قبول می‌کنیم. آن دیگر متفاوت است. پس این چیزی که شما گفتید اصلاً هوش مصنوعی قوی نیست.

مجری: متشکرم. جناب آقای عندلیب، یک خلاصه‌ی کوتاه از بحث امروزمان بفرمایید.

- آقای عندلیب

ما از نقطه نظر حقوقی موانع مسئولیت کیفری را مطرح کردیم که قرار شد به عنوان اعمال دفاعیات عام بحث شود و ما طفولیت، فقدان قوّه‌ی خودکنترلی، جنون، مستی، اشتباه موضوعی و اشتباه حکمی را به عنوان ۶ عامل مانع مسئولیت کیفری عرض کردیم و ما گفتیم که با تشبیهاتی که از حقوق داخلی‌مان و حقوق غربی می‌توان در این بحث به فکر گذاشت این است که می‌توان این موانع را در این‌باره گفت، هر چند که از نظر فقهی جناب آقای دکتر سخاوتیان در بعضی از این مباحث اشکال داشتند و فرمودند که ما اساساً نمی‌توانیم بعضی از این‌ها را بپذیریم و نقطه‌ی اصلی در فرمایشات جناب آقای دکتر سخاوتیان این است که ما مسئولیت را متوجه سازندگان، طراحان و کاربران کنیم.

مجری برنامه: مجید لاهیجانی امیری

تنظیم: محمد رسول صفری عربی

اخبار مرتبط

برچسب‌ها

نظر شما

شما در حال پاسخ به نظر «» هستید.
captcha