در مورد افزایش شهابی هوش مصنوعی در دوازده ماه گذشته مطالب زیادی گفته و نوشته شده است. این شامل وبلاگ خود ما نیز می شود: در دو سه ماهه گذشته، ما حکمرانی هوش مصنوعی، مسائل امنیتی مولد هوش مصنوعی و حتی سالگرد یک سالگی ChatGPT را پوشش داده ایم.
پوشش آنقدر کامل است که هوش مصنوعی – به طور خاص هوش مصنوعی مولد – قبلاً اوج چرخه هایپ گارتنر را پشت سر گذاشته است و بیش از کمی هیجان زده می شود. با این حال، جن استعاری هوش مصنوعی کاملاً از بطری خارج شده است، با نگرانیهایی که تقریباً به سرعت بهروزرسانیهای فناوری هوش مصنوعی که به نظر میرسد تقریباً هر روز در میان ما وجود دارد، رشد میکند. این صنعت داده و تجزیه و تحلیل را در کجا قرار می دهد؟ یا کل جامعه؟ آیا حتی ممکن است AI Genie را دوباره در بطری قرار دهیم و اگر بتوانیم، آیا میتوانیم؟
جن AI را آزاد کنید – مسئول
مانند بسیاری دیگر در این صنعت، Domo بسیاری از تلاشهای خود را بر روی قابلیتهای هوش مصنوعی در پلتفرم ما متمرکز کرده است و اطمینان حاصل میکند که این قابلیتها منطقی هستند و ارزشی را برای مشتریان ما به ارمغان میآورند. ما سخت کار میکنیم تا اطمینان حاصل کنیم که دادهها، بهعنوان یک دارایی اصلی هوش مصنوعی، مدیریت شده و آماده اجرای وعدههای هوش مصنوعی هستند.
به همین ترتیب، ما رویکردی عملگرایانه به مجموعه رو به رشد مدلهای هوش مصنوعی در دسترس داریم و یک مجموعه ابزار مدیریت و یکپارچهسازی آگنوستیک ارائه میکنیم. این اولویت اصلی ما در محیط داده و تجزیه و تحلیل امروزی است.
جدای از موارد استفاده از فناوری و تجاری، تنظیمکنندهها نیز در مورد آمادگی هوش مصنوعی هیجانزده هستند. من از همکاری با دانشگاههای استرالیا و آژانسهای دولتی فدرال در زمینه سیاستگذاری و راهنمایی در مورد هوش مصنوعی «مسئولانه» لذت بردهام.
سرعت سرسام آور توسعه هوش مصنوعی، احساس فوریت شدیدی را در میان تنظیم کننده ها برای درک خطرات بالقوه هوش مصنوعی و توسعه استراتژی های کاهش ایجاد کرده است. همانطور که اکثر مردم درک خواهند کرد، این یک کار تا حدی ناسپاس است زیرا تنظیم کننده ها “اگر انجام دهند لعنت شده اند و اگر نکنند لعنت شده اند”. AI Genie نیز به نظر می رسد که از زمان بیرون از بطری لذت می برد و هیچ نشانه ای از تمایل به بازگشت از خود نشان نمی دهد.
تنظیم AI Genie – دو مسئله اصلی
مقررات می تواند اشکال مختلفی داشته باشد، از ممنوعیت کامل تا ارائه توصیه ها و دستورالعمل ها، با درجات مختلف اجرا. نگرانی های اصلی در حال حاضر در دو اردو قرار می گیرند:
- خود فناوری هوش مصنوعی، از جمله سرعت توسعه، ملاحظات داده، حاکمیت، زیرساخت و هزینه های عملیاتی.
- تأثیر و خطرات بالقوه برای تجارت و جامعه، در درجه اول از منظر قانونی در مورد تعصب و اخلاق، و همچنین مسئولیت انسانی و نتایج غیر قابل توضیح.
این نگرانیها با نیاز به «درست درست کردن» تشدید میشوند – تنظیمکنندهها به ندرت از تجمل آزمون و خطا برخوردارند و به طیف وسیعی از گروهها و حوزههای ذینفع وابسته هستند، که همگی خواستار پاسخ فوری هستند. اما مقررات باید محافظه کارانه باشد (حتی صبورانه؟) تا بیش از حد رشد و نوآوری را خفه نکند یا به طور غیرضروری خفه نشود. معمولا این نوع محدودیت عملیاتی است. با این حال، سرعت توسعه و پذیرش هوش مصنوعی منجر به سطوح جدیدی از فوریت می شود – از جمله پیشنهادات اولیه برای توقف کامل هوش مصنوعی!
پس کجا ما را رها می کند؟ واضح است که هیچ راهی (یا نیازی) برای بازگرداندن AI Genie در بطری وجود ندارد. با این حال، اکنون که هجوم اولیه تبلیغات هوش مصنوعی از بین رفته است، صنعت موظف است پاسخ دقیق تری به قابلیت های هوش مصنوعی ایجاد کند.
در حالی که هیچ کمبودی در نوآوری و فرصت های تجاری وجود ندارد، ما باید اطمینان حاصل کنیم که هر کاری می توانیم برای به حداقل رساندن خطرات و ایجاد موارد استفاده مولد و پایدار انجام می دهیم. اگر این کار را نکنیم، هوش مصنوعی در معرض خطر تبدیل شدن به عقب ماندگی تکنولوژی قرار میگیرد و خطر هدر دادن پتانسیل آن را داریم.