ثبت بازخورد
- دیجیاتو
- تکنولوژی
- هوش مصنوعی
تکنولوژی چگونه هوش مصنوعی میتواند حریم خصوصی و هویت ما را تهدید کند؟
هوش مصنوعی در مسیری قدم برمیدارد که ممکن است استقلال، خلاقیت و تواناییهای انسان را تحتالشعاع قرار دهد.
نوشته شده توسط امیررضا فروزان | ۲ دی ۱۴۰۲ | ۲۲:۰۰
در دیجیاتو ثبتنام کنید
جهت بهرهمندی و دسترسی به امکانات ویژه و بخشهای مختلف در دیجیاتو عضو ویژه دیجیاتو شوید.
عضویت در دیجیاتو
تازههای تکنولوژی
- مدیرعامل همکاران سیستم: تحول دیجیتال، شاهراه کلیدی بین کسب و کارهای امروز و فردا است ۱۲ ساعت قبل
- تصویر ماژول دوربین گلکسی S24 اولترا با چهار سنسور بزرگ لو رفت ۱۲ ساعت قبل
- آپدیت بزرگ بعدی ویندوز ۱۱ احتمالاً اوایل ۲۰۲۴ منتشر خواهد شد ۱۳ ساعت قبل
- تردز حالا محبوبترین اپلیکیشن در اپ استور اپل است ۱۴ ساعت قبل
- اسنپ در تامین هزینههای نمونهگیری از سلولهای بنیادی با محک همکاری میکند ۱۴ ساعت قبل
ویدئوی مرتبط
هرچه جلوتر میرویم، هوش مصنوعی شباهت بیشتری به انسانها پیدا میکند و از الگوریتمهای پیشرفته، تکنیکهای یادگیری ماشینی و میلیاردها کلمه برای تولید پاسخهای طبیعی و جذاب بهره میبرد. حال سؤال اصلی اینجاست که علیرغم تمام امکانات فراهمشده از سوی این دستیارهای هوشمند، آنها چگونه میتوانند بر حریم خصوصی، هویت و روابط ما تأثیر بگذارند؟ در این مقاله پیرامون اثرگذاری هوش مصنوعی بر ارزشها و هویت انسان صحبت میکنیم و آینده احتمالی هوش مصنوعی را به تصویر میکشیم.
هوش مصنوعی و خدمات آن
این روزها «مصطفی سلیمان»، همبنیانگذار دیپمایند و مدیرعامل Inflection.ai، روی توسعه چتبات «پی» (Pi) تمرکز دارد که چندی پیش نیز شاهد عرضه نسخه اندرویدی آن بودیم. به گفته او، چتبات پی را میتوان در قامت «رئیس ستاد» قلمداد کرد که بسیاری از مشخصههای انسانی را حین کار ارائه میدهد.
سلیمان درباره قابلیتهای فعلی پی میگوید: «اگرچه این چتبات از انجام برخی دستورات مانند خرید غذا یا رزرو میز رستوران عاجز است، اما در آینده تحت عنوان نماینده قانونی و قراردادی شما فعالیت خواهد کرد؛ بدین معنی که در مصرف منابع مالی و انجام توافقات مربوط به آن نقش ویژهای ایفا میکند؛ میتواند با مدیر تماس تلفنی برقرار کند و مذاکره با نمایندگان مختلف را پیش ببرد.»
این موضوع نشان میدهد که هوش مصنوعی نقش محوری و کلیدی در برنامههای روزمره انسان دارد و ممکن است در آینده فراتر از یک دستیار هوشمند رفتار کند. اکنون هوش مصنوعی در انجام بسیاری از فعالیتهای عادی نقش دارد و با پردازش درلحظه دیتاهای روز دنیا، بیوقفه سؤالات کاربران را پاسخ میدهد. اگرچه برخی امور مانند رزرو پرواز، نوبتگرفتن از مطب پزشک و کنترل منابع مالی همچنان توسط انسانها مدیریت میشوند، اما طولی نمیکشد که حضور ابزارهای مولد در این بخشها را هم شاهد خواهیم بود.
ظاهراً سرنوشت ما مشابه خلبان هواپیماست؛ پس از تعیین مسیر، در کابین میمانیم و کنترل را به هوش مصنوعی میسپاریم، اما در صورت نیاز، دوباره کنترل را در دست میگیریم. بااینحال، نگرانی اصلی این است که هوش مصنوعی خودش مقصد را تعیین و انتخاب کند.
ما در آینده کنترل بسیاری از فعالیتها و انتخابهای روزانه خود را به دستیار هوش مصنوعی میسپاریم؛ از لیست خرید گرفته تا برنامهریزی برای ملاقاتهای مختلف. این دستیار با سایر دستیارهایی که اعضای خانواده، دوستان و آشنایان با آنها کار میکنند، در ارتباط خواهد بود. با گذر زمان، این دستیارها مستقلتر میشوند و درنهایت احتمالاً میتوانند خودشان تصمیم بگیرند و این تصمیمات شاید چندان خوب نباشند.
به همین دلیل، سلیمان اذعان دارد که ارتباط چتباتها (Al to AI) باید بهنحوی پیش برود که در تحلیلوتجزیه آن دچار مشکل نشویم. او میگوید: «ارتباطات هوش مصنوعی باید به سطح سادهای محدود شود. در این صورت میتوانیم عملکرد و ارتباطات چتباتها با یکدیگر را تحت نظر بگیریم.» با نظارت روی ارتباط چتباتها، پیشبینی میشود که روند توسعهشان با سرعت کمتری پیش برود و شاهد ایجاد ارتباط کارآمد و مؤثر بین دستیارهای هوشمند باشیم.
دستیارهای هوشمند؛ گزینه احتمالی برای سوءاستفاده
با استناد به مقاله تحقیقاتی «جاناتان گِرَچ» و «ناتانیل فست»، اساتید دانشگاه کالیفرنیای جنوبی، هوش مصنوعی میتواند افراد را به انجام کارها یا رفتارهایی سوق دهد که پیشازاین قادر به انجام آنها نبودند. این دو استاد با انجام تحقیقاتی، به این موضوع پی بردند که توسعه این فناوری مساوی است با افزایش احتمالی اعمال مجرمانه، نادرست و غیراخلاقی در بین افراد مختلف جامعه:
«این فناوری (هوش مصنوعی) مردم را قدرتمندتر میکند؛ حال نگرانی اینجاست که آنها با این قدرت دست به چه کاری میزنند؟»
«جاناتان گرچ»، استاد دانشگاه کالیفرنیا جنوبی
گرچ همچنین میگوید که استفاده از عوامل هوش مصنوعی ممکن است به ازدستدادن ارتباطات انسانی و همدلی آنها منجر شود. او اشاره میکند که دستیاران هوشمند میتوانند با کمرنگکردن ارزشهای بشری و ایجاد اختلال در تعاملات انسانها با یکدیگر، انسانیت را در بین آنها کمرنگ کنند.
جنبه منفی دیگر سوءاستفادههای احتمالی است که در تجارت یا فروش محصولات انجام میشود. برای مثال، شما میتوانید با دستکاری احساسات یا نشانههای غیرکلامی همچون حالت چهره یا لحن صدا از طریق ChatGPT، محصولتان را با قیمت بالاتری به فروش برسانید.
ترغیب مردم به خرید محصول گرانتر با بهرهگیری از چنین حقههایی، یک سناریوی خطرناک است که در آن هوش مصنوعی میتواند از روانشناسی انسان – که مطالعه ذهن و رفتار اوست –سوءاستفاده کرده و افراد را متقاعد به انجام کارهایی کند که شاید مایل به آن نباشند یا سودی برایشان نداشته باشد.
انسان باید از تأثیر دستیارهای هوشمند بر زندگی خود آگاه باشد و راهی برای متعادلکردن مزایا و معایب آن بیابد. ابزارهای هوش مصنوعی مولد میتوانند استقلال، خلاقیت و مهارتهای اجتماعی بشر را در برخی کارها و تعاملات مرسوم انسانها، تضعیف کنند.
آیا انسانها میتوانند با تغییر نقش دستیاران هوش مصنوعی سازگار شوند؟ آیا بشریت میتواند انسانیت خود را در مواجهه با ماشینهای هوشمند حفظ کند؟ تمامی این موارد سؤالاتی هستند که باید بهدنبال پاسخی برای آنها بود.
wired گوگل
مقالات و اخبار مرتبط
- گوگل محبوبترین افزونههای سال ۲۰۲۳ کروم را معرفی کرد
- گوگل احتمالاً هوش مصنوعی را جایگزین بخشی از کارمندان خود میکند
- گوگل احتمالاً در اندروید ۱۵ قابلیت نمایش سلامت باتری را فراهم میکند
- گوگل بزرگترین لحظات خود در سال ۲۰۲۳ را اعلام کرد؛ هوش مصنوعی Gemini در بالاترین رتبه
- گوگل از هوش مصنوعی VideoPoet برای ساخت و ویرایش ویدیو رونمایی کرد [تماشا کنید]
دیدگاهها و نظرات خود را بنویسید
مطالب پیشنهادی
پیشنهادهای دیجیاتو
- مطالعه جدید: زنان دانشجوی کامپیوتر نمرات بهتری میگیرند اما مسیر شغلی متفاوتی را طی میکنند
- از کسبوکارهای کوچک تا بزرگ: تاثیر شمارههای مجازی در تجارت الکترونیک
- اختصاصی: نوکیا در ایران به دلیل مونتاژ بدون مجوز موبایلهایش شکایت کرد
- اپل روزانه میلیونها دلار برای آموزش مدلهای هوش مصنوعی هزینه میکند
ورود به حساب کاربری
ساخت حساب کاربری
فراموشی رمز عبور