<?xml version='1.0' encoding='UTF-8'?>
<ArticleSet>
  <Article>
    <Journal>
      <PublisherName>حسین ترحمی اردکانی</PublisherName>
      <JournalTitle>مجله بین‌المللی کامپیوتر، فناوری اطلاعات و هوش مصنوعی</JournalTitle>
      <Issn></Issn>
      <Volume>1</Volume>
      <Issue>2 (زمستان)</Issue>
      <PubDate PubStatus="epublish">
        <Year>2025</Year>
        <Month>12</Month>
        <Day>23</Day>
      </PubDate>
    </Journal>

    <ArticleTitle>Civil and criminal liability arising from decision-making by intelligent systems and artificial intelligence algorithms in the legal system</ArticleTitle>
    <VernacularTitle>مسئولیت مدنی و کیفری ناشی از تصمیم‌گیری سامانه‌های هوشمند و الگوریتم‌های هوش مصنوعی در نظام حقوقی</VernacularTitle>
    <FirstPage>37</FirstPage>
    <LastPage>43</LastPage>
    <ELocationID EIdType="doi">10.22051/jera.2021.31891.2698</ELocationID>
    <Language>FA</Language>

    <AuthorList>
      <Author>
        <FirstName>علیرضا</FirstName>
                <Affiliation>کارشناس ارشد حقوق خصوصی، گروه حقوق خصوصی ، واحد نوراباد ممسنی ، ایران</Affiliation>
      </Author>
    </AuthorList>

    <PublicationType></PublicationType>

    <History>
      <PubDate PubStatus="received">
        <Year>2025</Year>
        <Month>12</Month>
        <Day>22</Day>
      </PubDate>
    </History>

    <Abstract>With the increasing use of intelligent systems and artificial intelligence algorithms in sensitive areas such as autonomous transportation, medicine, finance, and judgment, the issue of assigning liability for damages and crimes resulting from the automated decisions of these systems has become a complex challenge in legal systems. This article examines the foundations of civil and criminal liability resulting from AI decision-making, focusing on Iranian and some advanced legal systems. The main question is: who is responsible if an AI system causes damage or commits a crime? To answer this question, using a descriptive-analytical research method and studying library resources and international documents, key concepts such as &quot;algorithmic autonomy&quot;, &quot;unknown nationality&quot;, and &quot;legal personality of AI&quot; are first explained. Then, the traditional foundations of civil liability (fault, risk, and the theory of guarantee of rights) and criminal liability (material, moral, and legal elements) are analyzed in accordance with the unique characteristics of AI. The research findings show that traditional liability approaches face serious challenges due to the impersonal nature, complexity, and sometimes lack of transparency in the decision-making process of AI. Finally, new solutions such as creating a specific liability regime for AI, requiring mandatory insurance, developing risk-based governance frameworks, and finally, the controversial issue of granting &amp;ldquo;electronic legal personality&amp;rdquo; limited to advanced AI are examined. The article concludes that the Iranian legal system needs to enact specific and up-to-date laws to effectively address these challenges and suggests that the legislator should create a flexible and equitable framework by adopting an integrated approach (combining developer, manufacturer, user, and a compensation fund) and setting precise standards for design and monitoring.</Abstract>
    <OtherAbstract Language="FA">با گسترش روزافزون کاربرد سامانه‌های هوشمند و الگوریتم‌های هوش مصنوعی در حوزه‌های حساسی مانند حمل و نقل خودران، پزشکی، امور مالی و قضاوت، مسئله تخصیص مسئولیت برای خسارات و جرایم ناشی از تصمیمات خودکار این سامانه‌ها به چالشی پیچیده در نظام‌های حقوقی تبدیل شده است. این مقاله به بررسی مبانی مسئولیت مدنی و کیفری ناشی از تصمیم‌گیری هوش مصنوعی با تمرکز بر نظام‌های حقوقی ایران و برخی نظام‌های پیشرفته می‌پردازد. پرسش اصلی این است که در صورت ورود خسارت یا وقوع جرم توسط یک سامانه هوش مصنوعی، مسئولیت بر عهده چه شخص یا اشخاصی است؟ برای پاسخ به این پرسش، با استفاده از روش تحقیق توصیفی-تحلیلی و با مطالعه منابع کتابخانه‌ای و اسناد بین‌المللی، ابتدا مفاهیم کلیدی مانند &quot;خودمختاری الگوریتمی&quot;، &quot;تابعیت نامعلوم&quot; و &quot;شخصیت حقوقی هوش مصنوعی&quot; تبیین می‌شود. سپس، مبانی سنتی مسئولیت مدنی (خطا، خطر و نظریه تضمین حق) و مسئولیت کیفری (عناصر مادی، معنوی و قانونی) در تطبیق با ویژگی‌های منحصر به فرد هوش مصنوعی تحلیل می‌گردد. یافته‌های تحقیق نشان می‌دهد که رویکردهای سنتی مسئولیت به دلیل ماهیت غیرشخصی، پیچیدگی و گاهی عدم شفافیت در فرآیند تصمیم‌گیری هوش مصنوعی با چالش‌های جدی مواجه هستند. در انتها، راهکارهای نوین مانند ایجاد یک رژیم خاص مسئولیت برای هوش مصنوعی، الزام به بیمه اجباری، توسعه چارچوب‌های حکمرانی مبتنی بر ریسک و در نهایت، بحث مجادله‌برانگیز اعطای &quot;شخصیت حقوقی الکترونیکی&quot; محدود به هوش مصنوعی‌های پیشرفته مورد بررسی قرار می‌گیرد. این مقاله نتیجه می‌گیرد که نظام حقوقی ایران نیازمند تصویب قوانین خاص و به‌روز جهت مواجهه کارآمد با این چالش‌هاست و پیشنهاد می‌کند که قانون‌گذار با اتخاذ رویکردی تلفیقی (ترکیبی از مسئولیت توسعه‌دهنده، تولیدکننده، کاربر و یک صندوق جبران خسارت) و تعیین استانداردهای دقیق برای طراحی و نظارت، چارچوبی انعطاف‌پذیر و عادلانه ایجاد نماید.</OtherAbstract>

    <ObjectList>
      <Object Type="keyword">
        <Param Name="value">Civil liability</Param>
      </Object>
      <Object Type="keyword">
        <Param Name="value">criminal liability</Param>
      </Object>
      <Object Type="keyword">
        <Param Name="value">artificial intelligence</Param>
      </Object>
      <Object Type="keyword">
        <Param Name="value">autonomous systems</Param>
      </Object>
      <Object Type="keyword">
        <Param Name="value">legal personality</Param>
      </Object>
    </ObjectList>

    <ArchiveCopySource DocType="pdf">/downloadfilepdf/62177</ArchiveCopySource>
  </Article>
</ArticleSet>
