(Screenshot/Provided/DoD)
c4isrnet
کِرگ مارتل، مدیر ارشد هوش مصنوعی و دیجیتل پنتاگون، خواستار ارائه اطلاعات بیشتر از سوی شرکتهای هوش مصنوعی درباره نحوه ساخت نرم افزار هوش مصنوعی است تا این نهاد بتواند با طیب خاطر و اطمینان، از این فناوری استفاده کند.
نرم افزار هوش مصنوعی روی مدلهای زبانی بزرگ متکی است که از مجموعه داده عظیمیبرای کارکرد ابزارهای مانند چت باتها و تولیدکنندگان استفاده میکنند. این سرویسها معمولا بدون نشان دادن کارهای داخلی خود، در یک به اصطلاح جعبه سیاه، عرضه میشوند. در نتیجه، برای کاربران دشوار است که درک کنند چطور این فناوری، به تصمیمات رسیده یا چه چیزی باعث بهتر یا بدتر شدن آن به مرور زمان میشود.
مارتل گفت: ما فقط نتیجه نهایی مدلسازی را دریافت میکنیم و این کافی نیست. پنتاگون هیچ ایدهای ندارد که این مدلها چطور ساخته شدهاند یا از چه دادههایی استفاده میکنند. همچنین شرکتها توضیح نمیدهند سیستمهایشان چه خطراتی ممکن است ایجاد کنند.
وی اظهار کرد: آنها میگویند بفرمایید. ما نمیگوییم آن را چطور ساختیم. به شما نمیگوییم در چه چیزی خوب یا بد است. نمیگوییم آیا جانبدارانه است یا خیر.
این مقام وزارت دفاع آمریکا، چنین مدلهایی را معادل «فناوری بیگانه یافت شده» برای وزارت دفاع توصیف کرد. وی همچنین نگران است که فقط عدهای از مردم پول کافی برای ساختن مدلهای زبانی بزرگ دارند. مارتل هیچ شرکتی را با نام مشخص نکرد، اما مایکروسافت، آلفابت، گوگل و آمازون از جمله شرکتهایی هستند که به همراه استارتاپهای OpenAI و آنتروپیک سرگرم توسعه مدلهای زبانی بزرگ برای بازار تجاری هستند.
مارتل از صنعت هوش مصنوعی و دانشگاهیان دعوت کرد در فوریه به واشنگتن رفته و به نگرانیهای مربوط بپردازند. هدف سمپوزیوم پنتاگون در زمینه داده دفاعی و هوش مصنوعی، این است که مشخص کند مدلهای زبانی بزرگ، برای انجام چه کارهایی میتوانند مناسب باشند.
تیم مارتل که یک گروه ویژه را مامور ارزیابی مدلهای زبانی بزرگ کرده است، تاکنون ۲۰۰ کاربرد احتمالی برای آنها در داخل وزارت دفاع یافته است.
بر اساس گزارش بلومبرگ، مارتل گفت ما نمیخواهیم مدلهای زبانی بزرگ را متوقف کنیم. میخواهیم استفاده از آنها، مزایا و خطراتی که دارند و نحوه خنثی سازی آنها را درک کنیم.