تبلیغات برای ژنرال هوش مصنوعی با شروع سازمانها برای ایجاد زمینهای برای پذیرش یکپارچه حل شده است.
بر اساس گزارش شرکت تحقیقاتی گارتنر در ماه مه 2024، 45 درصد از 2500 حرفه ای می گویند که محبوبیت ChatGPT آنها را مجبور به سرمایه گذاری هنگفت بر روی هوش مصنوعی کرده است، 19 درصد می گویند که کسب و کار آنها در حالت تولید است و 70 درصد در حال حاضر از هوش مصنوعی استفاده می کنند.
اما باید تصمیمات حیاتی گرفته شود، معضلات حل شود و به سوالات پاسخ داده شود. این وبلاگ 10 معضل برتر هوش مصنوعی نسل Enterprise را که مدیران C-suite با آن روبرو هستند فهرست می کند.
مدلهای هوش مصنوعی نسل باز یا بسته
جهان درباره Gen AI فقط از طریق مدلهای دارای مجوز مانند Open AI's GPT یا Google's Bard (در حال حاضر Gemini) آشنا شد.
اما Geminis و ChatGPT واقعاً به کاربران نهایی کمک کردهاند تا تواناییهای گسترده Gen AI را برای عموم مردم درک کنند.
اما به زودی مدل های متن باز مانند متا لاما ظهور کردند. این مدلها بر اساس یک معماری مشترک ساخته شدهاند، پایگاههای کد زیربنایی را نشان میدهند، و تقریباً برای دادههای آموزش دیده شفاف هستند.
بنابراین چگونه کسب و کارها در هنگام اتخاذ این الگوهای اصلی تغییر می کنند؟ منبع باز یا دارای مجوز – که در دراز مدت به سود کسب و کارها خواهد بود.
جنبه های مختلف مربوط به عملکرد، دقت، اخلاقیات، توضیح پذیری و حفاظت از مالکیت معنوی به ذینفعان این امکان را می دهد که تصمیم بگیرند که آیا مدل های منبع بسته یا منبع باز را انتخاب کنند.
LLM یا LM
مدلهای زبان بزرگ، گروهی از مدلهای پایه هستند که بر روی حجم وسیعی از دادهها آموزش میبینند، و آنها را قادر میسازد زبان طبیعی و اشکال مختلف محتوا را برای انجام وظایف مختلف تولید کنند.
آنها بی نهایت انرژی مصرف می کنند که نشان می دهد تنها شرکت های چند ملیتی یا بزرگترین شرکت ها می توانند روی آموزش و نگهداری این مدل ها با میلیاردها پارامتر سرمایه گذاری کنند.
آیا این شرکتها بهتر است از مدلهای زبان کوچکتری استفاده کنند که نسبتاً صرفهجویی در مصرف انرژی، مقرونبهصرفه و حتی دوستدار حریم خصوصی هستند؟
در میان این مدلهای کوچکتر، LM مخصوص دامنه به دلیل مزایای آشکار به سرعت در حال افزایش است – شما میتوانید مدل کوچک خود را روی سختافزار متوسط اجرا کنید، در عین حال مدلهای سفارشی قدرتمندی بسازید که بر اساس دادههای خود آموزش دیدهاند.
صنایعی مانند مراقبتهای بهداشتی، حقوق و امور مالی میتوانند از این مدلهای زبانی کوچکتر مخصوص دامنه بهرهمند شوند.
با راه حل های یادگیری ماشین Express Analytics، کسب و کار خود را متحول کنید
هوش مصنوعی قابل توضیح یا هوش مصنوعی جعبه سیاه
آیا تا به حال از ChatGPT پرسیده اید که چگونه به یک راه حل رسیده است؟ در حالی که نتایج ChatGPT را می توان از نظر دقت و ارتباط آنها تجزیه و تحلیل کرد، عملکرد درونی چگونگی ایجاد پاسخ های خاص هرگز روشن نبوده است.
این می تواند برای شرکت ها در هنگام کار با LLM ها چالش برانگیز باشد، زیرا این مدل ها، با توجه به معماری عظیم آنها با لایه های متعدد نورون، پیروی از مسیر تصمیم گیری را دشوار می کند.
برای هر ورودی، مدل ممکن است توضیح ندهد که چگونه به یک نتیجه خاص رسیده است. این هوش مصنوعی جعبه سیاه نامیده می شود.
باز هم، در این زمینه، مدلهای زبانی کوچکتر (SLM) مجهزتر هستند تا به کاربران انسانی اجازه دهند نتایج تولید شده توسط الگوریتمهای خود را درک کرده و به آنها اعتماد کنند.
این قابلیتهای ارائهشده توسط مدلهای زبان کوچکتر را توجیه میکند که به توسعهدهندگان اجازه میدهد تا اطمینان حاصل کنند که سیستم طبق برنامهریزی کار میکند.
SLM ها می توانند حتی فراتر از این هم به کسب و کارها کمک کنند تا استانداردهای نظارتی را رعایت کنند.
سطح Enterprise را نادیده نگیرید
لایه سازمانی برای ساختن برنامههای موفق هوش مصنوعی ژنرال حیاتی است. به یاد داشته باشید، نمیتوانید مدلهای جعبه اولیه مانند Open AI's GPT یا Anthopic's Claude را انتخاب کنید و فوراً برنامههای Gen AI را برای شرکت خود ایجاد کنید.
آنها باید به صورت دستی یک لایه ارکستراسیون سازمانی بسازند که به Gen AI اجازه می دهد تا در برنامه های معمولی آنها تزریق شود.
آیا سازمان ها منابع قابل توجهی را برای ساخت این لایه سرمایه گذاری خواهند کرد؟ اینجاست که شرکتها باید با شرکای مؤثر کار کنند تا یک لایه تجاری سفارشی ایجاد کنند که واقعاً برنامههای سازمانی را با مدلهای هوش مصنوعی ژنرال مرتبط کند.
معضل ROI
رهبران شرکت ها تاکید می کنند که پیشنهادات هوش مصنوعی ژنرال باید یک پیشنهاد ارزش تجاری واضح را نشان دهد. اما برای یک فناوری که در مراحل ابتدایی خود است، اما با پتانسیل عظیمی برای تحول – چگونه کسب و کارها می توانند ارزش را اندازه گیری کنند؟
آیا سازمانها باید ROI را در مراحل اولیه نادیده بگیرند و به جای آن بر این تمرکز کنند که چگونه هوش مصنوعی ژنرال نوآوری را القا میکند و به آنها در موقعیتیابی و تمایز استراتژیک کمک میکند؟
یا باید کسبوکارها آنقدر زیرک باشند که سرمایهگذاری در حوزههایی را که میتوانند سود آسانی به همراه داشته باشند، اولویت دهند و به تدریج به سمت پروژههای پیچیده حرکت کنند؟
زباله در زباله بیرون
این ضرب المثل در عصر هوش مصنوعی مولد نمی تواند صادق باشد، جایی که قابلیت اطمینان خروجی هوش مصنوعی ژنرال به شدت به آن بستگی دارد. کیفیت از داده های ارسال شده به عنوان ورودی
چگونه سازمان ها می توانند بالاترین استانداردهای کیفیت داده را هنگام آموزش مدل های هوش مصنوعی ژنرال تضمین کنند؟ برای سازمانها چقدر یکپارچه/دشوار خواهد بود که اطمینان حاصل کنند که هوش مصنوعی سفارشی آنها بر اساس دادههای داخلی آنها مطابقت دارد و عمل میکند؟
این وضعیت زمانی پیچیدهتر میشود که متوجه میشویم به طور متوسط سازمانها تنها 56 درصد از دادههایی را که ایجاد میکنند جمعآوری میکنند.
حتی واضحتر، حدود 77 درصد از دادههای جمعآوریشده یا قدیمی یا بیاهمیت هستند.
بنابراین، اگر سازمانها خواهان استقرار بینظیر نسل بعدی هوش مصنوعی در مقیاس بزرگ هستند، باید قبل از اینکه دادهها را به سیستمهای هوش مصنوعی خود وارد کنند، با زحمت، دادهها را جمعآوری، طبقهبندی و پاک کنند.
مسائل مربوط به اعتماد
شرکت ها نگران دقت نتایج Gen AI هستند. شکی نیست که هوش مصنوعی مولد در حال تغییر دامنه کار است، با این حال بسیاری از مردم معتقدند که می تواند منجر به بیکاری یا از دست دادن شغل شود.
این بی اعتمادی انباشته با هم می تواند مانعی برای پذیرش Gen AI توسط شرکت ها ایجاد کند.
اما خوشبختانه، این نگرانیها سازمانها را از پذیرش ژنرال هوش مصنوعی در پروژههای آزمایشی یا آزمایشهای کوچک خود بازنمیدارد.
اما اگر قرار است این پایلوتها مقیاس شوند، سازمانها باید در ابعاد چندگانه در میان مشارکت کارکنان، شفافیت، کیفیت ورودی/خروجی و غیره اعتماد ایجاد کنند.
با راه حل های یادگیری ماشین Express Analytics، کسب و کار خود را متحول کنید
عوامل مجازی پیچیده
آیا رباتهای چت میتوانند کار خود را فراتر از مکالمات هوشمندانه انجام دهند؟ ChatGPT و Geminis به ما نشان دادند که چگونه سیستمهای پرسش و پاسخ آنها میتواند پاسخهای متنی غنی ارائه دهد.
آیا می تواند برای سفر برنامه ریزی کند یا حتی بلیط رزرو کند؟ طلوع نمایندگی های مجازی پیچیده دور از دسترس نیست و تجربه مشتری را به گونه ای تغییر خواهد داد که تا به حال دیده نشده است.
مقررات مبهم
عدم قطعیت همچنان در محیط نظارتی حاکم است.
در دسامبر 2023، یک توافق موقت در مورد قانون هوش مصنوعی منعقد شد که حذف بی رویه تصاویر برای ایجاد پایگاه های اطلاعاتی تشخیص چهره، سیستم های طبقه بندی بیومتریک (با پتانسیل سوگیری تبعیض آمیز)، سیستم های “امتیاز اجتماعی” و استفاده از هوش مصنوعی را ممنوع می کند. برای دستکاری اجتماعی یا اقتصادی
با انتخابات پیش رو، هنوز زمان برای آمریکا برای تصمیم گیری در مورد حکمرانی و امنیت هوش مصنوعی وجود دارد، اما این امر می تواند کمک چندانی برای متوقف کردن پیشرفت های خیره کننده ای که همچنان در کشور اتفاق می افتد، بگیرد.
با این حال، سازمانها نمیتوانند هنگام اجرای حفاظهای امنیتی و اعتماد راضی باشند.
سایه هوش مصنوعی
Shadow AI معمولاً زمانی اتفاق می افتد که یک کارمند به ظاهر مشتاق، مشتاق یادگیری یا انجام یک عمل از طریق یک برنامه هوش مصنوعی، اطلاعات حساس را به یک مدل عمومی داده و در نتیجه اسرار تجاری را فاش کند.
نتیجه گیری:
C-suite باید بداند که چگونه کسب و کارها می توانند ابزارهای لازم را برای گنجاندن آسان genAI در گردش کار خود فراهم کنند.
همچنین، چگونه آنها می توانند مشارکت های متقابل را تقویت کنند، سیلوها را خراب کنند و به تخصص های مختلف اجازه دهند تا پیرامون تکنیک های GenAI ادغام شوند.
هوش مصنوعی مولد میتواند عملیات شرکتها را با برخوردهای مهم در حوزههای سازمانی در زنجیره ارزش تغییر دهد.
این فناوری با سرعت موشک در حال توسعه است، در حالی که مدیران سطح C هنوز در حال کار بر روی خطرات و ارزش های تجاری آن هستند.
این می تواند به طور قابل توجهی بر نیروی کار تأثیر بگذارد و تأثیر آن بر جوامع محلی و گروه های خاص می تواند بسیار منفی باشد.
با Oyster مدل های تحلیل احساسات بسازید
کسبوکارتان هر چه باشد، میتوانید از پلتفرم دادههای مشتری Oyster از Express Analytics برای تجزیه و تحلیل بازخورد مشتریان خود استفاده کنید. برای اینکه بدانید چگونه این اولین قدم را در این فرآیند بردارید، روی تب زیر کلیک کنید.
آیا این مقاله را دوست داشتید؟
بینش، مطالعات موردی، اطلاعات بیشتر در مورد محصول ما، پلت فرم اطلاعات مشتری را دریافت کنید