آیا AI Genie را دوباره در بطری قرار می دهید؟


در مورد افزایش شهابی هوش مصنوعی در دوازده ماه گذشته مطالب زیادی گفته و نوشته شده است. این شامل وبلاگ خود ما نیز می شود: در دو سه ماهه گذشته، ما حکمرانی هوش مصنوعی، مسائل امنیتی مولد هوش مصنوعی و حتی سالگرد یک سالگی ChatGPT را پوشش داده ایم.

پوشش آنقدر کامل است که هوش مصنوعی – به طور خاص هوش مصنوعی مولد – قبلاً اوج چرخه هایپ گارتنر را پشت سر گذاشته است و بیش از کمی هیجان زده می شود. با این حال، جن استعاری هوش مصنوعی کاملاً از بطری خارج شده است، با نگرانی‌هایی که تقریباً به سرعت به‌روزرسانی‌های فناوری هوش مصنوعی که به نظر می‌رسد تقریباً هر روز در میان ما وجود دارد، رشد می‌کند. این صنعت داده و تجزیه و تحلیل را در کجا قرار می دهد؟ یا کل جامعه؟ آیا حتی ممکن است AI Genie را دوباره در بطری قرار دهیم و اگر بتوانیم، آیا می‌توانیم؟

جن AI را آزاد کنید – مسئول

مانند بسیاری دیگر در این صنعت، Domo بسیاری از تلاش‌های خود را بر روی قابلیت‌های هوش مصنوعی در پلتفرم ما متمرکز کرده است و اطمینان حاصل می‌کند که این قابلیت‌ها منطقی هستند و ارزشی را برای مشتریان ما به ارمغان می‌آورند. ما سخت کار می‌کنیم تا اطمینان حاصل کنیم که داده‌ها، به‌عنوان یک دارایی اصلی هوش مصنوعی، مدیریت شده و آماده اجرای وعده‌های هوش مصنوعی هستند.

به همین ترتیب، ما رویکردی عمل‌گرایانه به مجموعه رو به رشد مدل‌های هوش مصنوعی در دسترس داریم و یک مجموعه ابزار مدیریت و یکپارچه‌سازی آگنوستیک ارائه می‌کنیم. این اولویت اصلی ما در محیط داده و تجزیه و تحلیل امروزی است.

جدای از موارد استفاده از فناوری و تجاری، تنظیم‌کننده‌ها نیز در مورد آمادگی هوش مصنوعی هیجان‌زده هستند. من از همکاری با دانشگاه‌های استرالیا و آژانس‌های دولتی فدرال در زمینه سیاست‌گذاری و راهنمایی در مورد هوش مصنوعی «مسئولانه» لذت برده‌ام.

سرعت سرسام آور توسعه هوش مصنوعی، احساس فوریت شدیدی را در میان تنظیم کننده ها برای درک خطرات بالقوه هوش مصنوعی و توسعه استراتژی های کاهش ایجاد کرده است. همانطور که اکثر مردم درک خواهند کرد، این یک کار تا حدی ناسپاس است زیرا تنظیم کننده ها “اگر انجام دهند لعنت شده اند و اگر نکنند لعنت شده اند”. AI Genie نیز به نظر می رسد که از زمان بیرون از بطری لذت می برد و هیچ نشانه ای از تمایل به بازگشت از خود نشان نمی دهد.

تنظیم AI Genie – دو مسئله اصلی

مقررات می تواند اشکال مختلفی داشته باشد، از ممنوعیت کامل تا ارائه توصیه ها و دستورالعمل ها، با درجات مختلف اجرا. نگرانی های اصلی در حال حاضر در دو اردو قرار می گیرند:

  1. خود فناوری هوش مصنوعی، از جمله سرعت توسعه، ملاحظات داده، حاکمیت، زیرساخت و هزینه های عملیاتی.
  2. تأثیر و خطرات بالقوه برای تجارت و جامعه، در درجه اول از منظر قانونی در مورد تعصب و اخلاق، و همچنین مسئولیت انسانی و نتایج غیر قابل توضیح.

این نگرانی‌ها با نیاز به «درست درست کردن» تشدید می‌شوند – تنظیم‌کننده‌ها به ندرت از تجمل آزمون و خطا برخوردارند و به طیف وسیعی از گروه‌ها و حوزه‌های ذی‌نفع وابسته هستند، که همگی خواستار پاسخ فوری هستند. اما مقررات باید محافظه کارانه باشد (حتی صبورانه؟) تا بیش از حد رشد و نوآوری را خفه نکند یا به طور غیرضروری خفه نشود. معمولا این نوع محدودیت عملیاتی است. با این حال، سرعت توسعه و پذیرش هوش مصنوعی منجر به سطوح جدیدی از فوریت می شود – از جمله پیشنهادات اولیه برای توقف کامل هوش مصنوعی!

پس کجا ما را رها می کند؟ واضح است که هیچ راهی (یا نیازی) برای بازگرداندن AI Genie در بطری وجود ندارد. با این حال، اکنون که هجوم اولیه تبلیغات هوش مصنوعی از بین رفته است، صنعت موظف است پاسخ دقیق تری به قابلیت های هوش مصنوعی ایجاد کند.

در حالی که هیچ کمبودی در نوآوری و فرصت های تجاری وجود ندارد، ما باید اطمینان حاصل کنیم که هر کاری می توانیم برای به حداقل رساندن خطرات و ایجاد موارد استفاده مولد و پایدار انجام می دهیم. اگر این کار را نکنیم، هوش مصنوعی در معرض خطر تبدیل شدن به عقب ماندگی تکنولوژی قرار می‌گیرد و خطر هدر دادن پتانسیل آن را داریم.




دیدگاهتان را بنویسید