مدیرعامل شرکت سازنده چت‌جی‌پی‌تی: از ربات‌های هوش‌مصنوعی برای مشاوره حقوقی و روانی استفاده نکنید

یورونیوز: ظاهرا نباید رازهای مگوی زندگی‌تان را با یک چت‌بات هوش مصنوعی مثل چت جی‌پی‌تی در میان بگذارید. این توصیه دیگر صرفا دیدگاه کارشناسان مستقل نیست بلکه سازنده معروف‌ترین مدل هوش مصنوعی مولد جهان نیز بر آن تاکید دارد.

سم آلتمن، مدیرعامل «اوپن ای‌آی» (OpenAI)، شرکت سازنده چت جی‌پی‌تی (ChatGPT)، این موضوع را این هفته در مصاحبه‌ای با تئو وان، مجری پادکست This Past Weekend مطرح کرد.


او تاکید کرد که اگرچه گفت‌وگوهای شما با هوش مصنوعی باید از سطح بالایی از محرمانگی برخوردار باشد، اما در حال حاضر برای این مهم، قانونی وجود ندارد.

در بخشی از این گفت‌وگو، تئو وان گفت که یکی از دلایلی که در استفاده از ابزارهای هوش مصنوعی تردید دارد این است که «نمی‌داند چه کسی قرار است اطلاعات شخصی‌اش را داشته باشد» و آقای آلتمن پاسخ داد: «فکر می‌کنم این نگرانی منطقی است. اینکه قبل از استفاده گسترده از این ابزارها، آدم واقعاً بخواهد از جنبه‌ حقوقی و حریم خصوصی‌‌اش مطمئن بشود.»

در سال‌های اخیر کاربران زیادی، استفاده از چت‌بات‌ها به عنوان درمانگر، پزشک یا مشاور حقوقی را آغاز کرده‌اند و این موضوع برای حریم خصوصی مشکل‌ساز شده است.

هیچ قانون مشخصی برای محرمانگی این مکالمات وجود ندارد و اینکه واقعاً چه اتفاقی برای این داده‌ها می‌افتد، مبهم است. البته مشکلات دیگری هم وجود دارد مثلاً اینکه چت‌بات‌ها ممکن است توصیه‌های خوبی ارائه نکنند.

بر همین اساس آقای آلتمن گفت: «مردم، به خصوص جوان‌ها از این ابزار مثل درمانگر و مربی زندگی استفاده می‌کنند. مثلا می‌گویند من مشکل عاطفی دارم، چه‌کار کنم؟ در حالی که اگر همین حرف‌ها را با یک وکیل یا دکتر بزنید، مکالمات شما تحت حمایت قانون است.»

او افزود: «اگر شما با چت‌جی‌پی‌تی درباره شخصی‌ترین مسائل زندگیتان حرف بزنید و بعد یک دعوی حقوقی مطرح شود، ممکن است شرکت ما مجبور شود آن اطلاعات را فاش کند. به‌نظرم این اوضاع خیلی درهم‌وبرهم است. ما باید همان سطح از حریم خصوصی‌ را برای چت با هوش مصنوعی داشته باشیم که برای صحبت با درمانگر یا وکیل داریم.»

سم آلتمن اعتراف کرد که گفتگوهای شخصی مردم با چت‌جی‌پی‌تی لزوماً محرمانه نیستند، زیرا در حال حاضر هیچ مبنای قانونی برای حفاظت از اطلاعات حساس و شخصی وجود ندارد.

او تاکید کرد که این مساله باید «با فوریت» رسیدگی شود و افزود که سیاست‌گذاران نیز با او هم‌عقیده‌اند.

این نگرانی نیز وجود دارد که وقتی شما از چی‌جی‌پی‌تی یا ابزار مشابهی برای مکالمه درمانی استفاده می‌کنید، ممکن است وقتی شرکت بیمه یا شخص دیگری درباره شما از همان ابزار سؤال می‌پرسد، بخشی از آن داده‌ها افشا شوند.

نگرانی‌های حقوقی درباره محرمانگی تنها دلیلی نیست که به باور کارشناسان، مردم باید از استفاده از چت‌بات‌ها به عنوان درمانگر دوری می‌کنند. یک مطالعه جدید از دانشگاه استنفورد نشان داده که چت‌بات‌های درمانی هوش مصنوعی، اظهار نظرهای نامناسب و نادرستی درباره برخی بیماری‌های روانی دارند
رأی دهید
نظر شما چیست؟
جهت درج دیدگاه خود می بایست در سایت عضو شده و لوگین نمایید.
  • +246پرچم شیر و خورشید ایران بر فراز سکوی نخست المپیاد جهانی به اهتزاز درآمد!
  • +179رضا امیرخانی، نویسنده مورد علاقه علی خامنه‌ای در سقوط پاراگلایدار دچار ضربه مغزی شد
  • +131برنامه جنجالی مهران غفوریان و سیامک انصاری به دلیل «توهین به نمادهای کهن و تاریخی ایران»، توقیف شد!
  • +125ترامپ مهاجران سومالیایی را «زباله» خواند و گفت «برگردند مملکت خودشان را درست کنند»
  • +120ضربه آیت‌الله سیستانی به ساختار دینی-امنیتی حکومت خامنه‌ای با یک فتوای یک جمله‌ای
  • +119مهدی پرپنچی : خامنه‌ای درست می‌گوید که اسرائیل و آمریکا دست‌خالی برگشتند
  • +113درگیری شدید بین مردم و پلیس در پیست موتورسواری شیراز - ماموران عقب نشستند
  • +104انتشار دومین سری از ویدیوهای حمله اسرائیل به اتاق های فرماندهی سپاه در جنگ ۱۲ روزه
  • +88همسر سقاب اصفهانی، معاون جدید رئیس‌جمهور در سانحه رانندگی درگذشت+ ویدیو
  • +87دو فلسطینی «در حال تسلیم» به ضرب گلوله سربازان اسرائیل کشته شدند + ویدیو