<?xml version='1.0' encoding='UTF-8'?>
<ArticleSet>
  <Article>
    <Journal>
      <PublisherName>حسین ترحمی اردکانی</PublisherName>
      <JournalTitle>مجله بین‌المللی کامپیوتر، فناوری اطلاعات و هوش مصنوعی</JournalTitle>
      <Issn></Issn>
      <Volume>1</Volume>
      <Issue>2 (زمستان)</Issue>
      <PubDate PubStatus="epublish">
        <Year>2026</Year>
        <Month>01</Month>
        <Day>24</Day>
      </PubDate>
    </Journal>

    <ArticleTitle>Optimization of Cloud Computing Resource Utilization Using Machine Learning</ArticleTitle>
    <VernacularTitle>بهینه سازى استفاده از منابع رایانش ابرى با استفاده از یادگیرى  ماشین</VernacularTitle>
    <FirstPage>54</FirstPage>
    <LastPage>70</LastPage>
    <ELocationID EIdType="doi">10.22051/jera.2021.31891.2698</ELocationID>
    <Language>FA</Language>

    <AuthorList>
      <Author>
        <FirstName>منصوره</FirstName>
                <Affiliation>ازاد</Affiliation>
      </Author>
      <Author>
        <FirstName>سارا</FirstName>
                <Affiliation>ازاد</Affiliation>
      </Author>
      <Author>
        <FirstName>نرگس</FirstName>
                <Affiliation>ازاد</Affiliation>
      </Author>
    </AuthorList>

    <PublicationType></PublicationType>

    <History>
      <PubDate PubStatus="received">
        <Year>2025</Year>
        <Month>12</Month>
        <Day>30</Day>
      </PubDate>
    </History>

    <Abstract>Cloud computing, as one of the fundamental infrastructures of information technology, provides flexible and scalable access to computational resources. However, managing and optimizing the utilization of these resources in the face of dynamic, diverse, and unpredictable workloads remains a significant challenge. Improper resource allocation can lead to increased operational costs, energy waste, reduced system efficiency, and degraded service quality. Therefore, leveraging intelligent approaches for resource management has gained increasing importance.

In this study, the optimization of cloud computing resource utilization is investigated with a focus on machine learning methods. Machine learning algorithms, including supervised, unsupervised, and reinforcement learning, can analyze historical and real-time data related to CPU, memory, bandwidth, and storage usage to identify workload behavioral patterns and predict future demand. This capability enables dynamic resource allocation, automatic scalability, and optimal task scheduling.

Research results indicate that the use of machine learning-based models can enhance the accuracy of workload prediction and prevent issues such as over-provisioning or under-provisioning of resources. Moreover, this approach reduces data center energy consumption, improves resource efficiency, and increases end-user satisfaction.

Overall, the application of machine learning in cloud resource management represents an effective step toward the development of intelligent, efficient, and sustainable cloud systems. The proposed machine learning-based model dynamically and intelligently allocates cloud computing resources by analyzing resource consumption patterns and predicting workloads. By reducing resource wastage and increasing efficiency, this model optimizes the utilization of computational resources and enhances service quality in cloud environments.</Abstract>
    <OtherAbstract Language="FA">رایانش ابری به‌عنوان یکی از زیرساخت‌های اصلی فناوری اطلاعات، امکان دسترسی انعطاف‌پذیر و مقیاس‌پذیر به منابع محاسباتی را فراهم می‌سازد. با این حال، مدیریت و بهینه‌سازی استفاده از این منابع در مواجهه با بارهای کاری پویا، متنوع و غیرقابل پیش‌بینی، همچنان یک چالش اساسی محسوب می‌شود. تخصیص نامناسب منابع می‌تواند منجر به افزایش هزینه‌های عملیاتی، اتلاف انرژی، کاهش کارایی سیستم و افت کیفیت خدمات شود. از این‌رو، بهره‌گیری از رویکردهای هوشمند برای مدیریت منابع اهمیت فزاینده‌ای یافته است. در این پژوهش، بهینه‌سازی استفاده از منابع رایانش ابری با تکیه بر روش‌های یادگیری ماشین مورد بررسی قرار می‌گیرد. الگوریتم‌های یادگیری ماشین، از جمله یادگیری نظارت‌شده، بدون نظارت و یادگیری تقویتی، با تحلیل داده‌های تاریخی و داده‌های بلادرنگ مربوط به مصرف پردازنده، حافظه، پهنای باند و ذخیره‌سازی، قادر به شناسایی الگوهای رفتاری بار کاری و پیش‌بینی تقاضای آینده هستند. این قابلیت امکان تخصیص پویا، مقیاس‌پذیری خودکار منابع و زمان‌بندی بهینه وظایف را فراهم می‌سازد. نتایج تحقیقات نشان می‌دهد که استفاده از مدل‌های مبتنی بر یادگیری ماشین می‌تواند دقت پیش‌بینی بار کاری را افزایش داده و از بروز مشکلاتی نظیر تخصیص بیش‌ازحد منابع یا کمبود منابع جلوگیری کند. همچنین، این رویکرد باعث کاهش مصرف انرژی مراکز داده، بهبود بهره‌وری منابع و افزایش رضایت کاربران نهایی می‌شود. در مجموع، به‌کارگیری یادگیری ماشین در مدیریت منابع رایانش ابری، گامی مؤثر در جهت ایجاد سیستم‌های ابری هوشمند، کارآمد و پایدار به‌شمار می‌آید. مدل پیشنهادی مبتنی بر یادگیری ماشین با تحلیل الگوهای مصرف منابع و پیش‌بینی بار کاری، تخصیص بهینه منابع رایانش ابری را به‌صورت پویا و هوشمند انجام می‌دهد. این مدل با کاهش اتلاف منابع و افزایش بهره‌وری، موجب بهینه‌سازی استفاده از منابع محاسباتی و بهبود کیفیت خدمات در محیط‌های ابری می‌شود.</OtherAbstract>

    <ObjectList>
      <Object Type="keyword">
        <Param Name="value">Optimization</Param>
      </Object>
      <Object Type="keyword">
        <Param Name="value">Cloud Computing</Param>
      </Object>
      <Object Type="keyword">
        <Param Name="value">Machine Learning</Param>
      </Object>
    </ObjectList>

    <ArchiveCopySource DocType="pdf">/downloadfilepdf/111142</ArchiveCopySource>
  </Article>
</ArticleSet>
