ثبت بازخورد
- دیجیاتو
- هوش مصنوعی
- تکنولوژی
هوش مصنوعی OpenAI تیم جدیدی برای مطالعه در مورد ایمنی کودکان تشکیل داد
OpenAI هماکنون به دنبال استخدام یک متخصص اجرای ایمنی کودکان است که بتواند با ایجاد سیاستهای جدیدی از آسیب کودکان جلوگیری کند.
نوشته شده توسط جواد تاجی | ۱۹ بهمن ۱۴۰۲ | ۱۰:۰۰
در دیجیاتو ثبتنام کنید
جهت بهرهمندی و دسترسی به امکانات ویژه و بخشهای مختلف در دیجیاتو عضو ویژه دیجیاتو شوید.
عضویت در دیجیاتو
تازههای تکنولوژی
- ورود جدیتر اپل به دنیای ابزارهای هوش مصنوعی؛ MGIE برای ویرایش عکس منتشر شد ۲ ساعت قبل
- اپل مشکل بازیابی رمز عبور ویژن پرو را با آپدیت visionOS 1.1 برطرف میکند ۳ ساعت قبل
- انتشار تصاویر شماتیک آیفون ۱۶؛ ماژول دوربین عقب عمودی میشود ۱۲ ساعت قبل
- OpenAI برای تشخیص محتواهای ساختگی، به تصاویر DALL-E 3 واترمارک اضافه میکند ۱۶ ساعت قبل
- روزیاتو: کدام کشورها بزرگترین جنگلهای جهان را در قلمرو خود دارند؟ + اینفوگرافیک ۱۶ ساعت قبل
ویدئوی مرتبط
OpenAI، استارتاپ سازنده ChatGPT، با وجود نظارت فعالان این حوزه و همچنین والدین، تیم جدیدی را تشکیل داده است که هدف آن مطالعه در مورد راههای جلوگیری از سوء استفاده از کودکان با کمک ابزارهای هوش مصنوعی است.
براساس گزارش تک کرانچ، OpenAI در صفحه آگهیهای شغلی خود به تیم امنیت کودکان اشاره کرده است و میگوید که این تیم با گروههای حقوقی، تحقیقاتی و قانونگذار OpenAI و همچنین شرکای خارجی همکاری میکند تا بتواند «فرایندها و حوادث» مربوط به کاربران زیر سن قانونی را مدیریت کند.
در حال حاضر این تیم به دنبال استخدام یک متخصص اجرای ایمنی کودکان است که وظیفه او اعمال سیاستهای OpenAI در زمینه محتوای تولیدشده توسط هوش مصنوعی و همچنین کار روی فرایندهای بررسی مرتبط با محتوای «حساس» (احتمالاً مربوط به کودکان) است.
کودکان و نوجوانان در حال حاضر بیشتر از قبل برای انجام تکالیف خود و همچنین مسائل شخصی از ابزارهای هوش مصنوعی استفاده میکنند. براساس یک نظرسنجی که توسط مرکز دموکراسی و فناوری انجام شده است، ۲۰ درصد کودکان از ChatGPT برای مقابله با اضطراب یا مشکلات مربوط به سلامت روان، ۲۲ درصد برای مشکلات خود با دوستان و ۱۶ درصد برای درگیریهای خانوادگی کمک گرفتهاند.
با این حال، برخی افراد از این موضوع بهعنوان یک زنگ خطر یاد کردهاند.
تابستان گذشته، برخی مدارس و کالجها تلاش کردند تا استفاده از ChatGPT را به دلیل سرقت دبی و ترس ارائه اطلاعات نادرست ممنوع کنند. هرچند از آن زمان تاکنون برخی از این محدودیتها برداشته شداند، اما پتانسیل ابزارهای هوش مصنوعی برای ایجاد اطلاعات نادرست یا تصاویری که باعث ناراحتی دیگران میشود، همیشه عامل نگرانی بوده است.
OpenAI که با انتشار مدل هوش مصنوعی ChatGPT نام خود را به سر زبانها انداخت، در چند وقت گذشته با نگرانیهای زیادی از سوی فعالان و کارشناسان مواجه شده است. این شرکت در همین راستا اخیراً اعلام کرده بود برای تشخیص محتواهای ساختگی، به تصاویر DALL-E 3 واترمارک اضافه میکند.
OpenAI
مقالات و اخبار مرتبط
- OpenAI برای تشخیص محتواهای ساختگی، به تصاویر DALL-E 3 واترمارک اضافه میکند
- OpenAI میگوید ChatGPT میتواند به ساخت سلاحهای بیولوژیکی کمک کند
- مایکروسافت و OpenAI احتمالاً روی یک شرکت سازنده رباتهای انساننما سرمایهگذاری میکنند
- کارمند مایکروسافت ظاهراً از اطلاعرسانی درباره مشکل امنیتی DALL-E 3 منع شده بود
- رگولاتوری ایتالیا: OpenAI با ChatGPT قوانین حریم خصوصی اروپا را نقض میکند
دیدگاهها و نظرات خود را بنویسید
مطالب پیشنهادی
پیشنهادهای دیجیاتو
- بررسی گلکسی S24 Ultra؛ ستاره درخشان کهکشان سامسونگ
- بررسی مکبوک پرو M3 Pro
- مطالعه جدید: زنان دانشجوی کامپیوتر نمرات بهتری میگیرند اما مسیر شغلی متفاوتی را طی میکنند
- از کسبوکارهای کوچک تا بزرگ: تاثیر شمارههای مجازی در تجارت الکترونیک
ورود به حساب کاربری
ساخت حساب کاربری
فراموشی رمز عبور