تاخیر در پرداخت وام کرونا و تحویل ندادن نیسان دیزل
تاریخ انتشار: ۱۶ شهریور ۱۴۰۱ | کد خبر: ۳۵۹۶۰۲۳۰
شما مخاطبان عزیز، از طریق شبکههای اجتماعی برای باشگاه خبرنگاران جوان، با شماره ۰۹۳۰۳۰۰۱۹۴۷ یا شناسه @shahrvandyjc پیامهای متعددی را در موضوعات مختلف ارسال کردهاید.
تحویل ندادن نیسان دیزل
سلام، خودرو نیسان دیزل زمستان ۱۴۰۰ نام نویسی کردیم تحویل مردادماه است. الان میگویند پلاک نمیشود و تحویل داده نمیشود.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
تاخیر در پرداخت وام کرونا
وام یک میلیونی یارانه که قرار بود به مدت سه سال از یارانه برداشت شود الان نزدیک به هشت ماهه اضافه برداشت میکنند و هیچ کس هم جوابگو نیست
اعلام نشدن نتایج آزمون مرکز وکلا
سلام لطفا اعلام نتایج مجدد آزمون مرکز وکلا را بر حسب تراز پیگیری کنید. مرکز وکلا هنوز هیچ اقدامی حتی پس از تصویب مجلس انجام نداده است.
برای آموزش اصول تصویربرداری خبری اینجا کلیک کنید
باشگاه خبرنگاران جوان شهروند خبرنگار شهروند خبرنگارمنبع: باشگاه خبرنگاران
کلیدواژه: صدای مردمی مشکلات مردمی سوژه های مردمی
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.yjc.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «باشگاه خبرنگاران» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۵۹۶۰۲۳۰ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
صدای پای هوش مصنوعی در دادگاهها/ سایه جعل نرمافزاری بر پروندههای حقوقی
خبرگزاری علم و فناوری آنا؛ هوش مصنوعی در بسیاری از زمینههای زندگی ما و از جمله در سیستم حقوقی وارد شده و تحولاتی ایجاد کرده است، اما محتوای تولید شده توسط هوش مصنوعی، مانند قوانین جعلی، در منازعات حقوقی نگرانیهای زیادی را برانگیخته است.
دادگاهها برای ارائه پروندههای مبتنی بر قانون به وکلا متکی هستند، اما استفاده از قوانین جعلی ایجاد شده توسط هوش مصنوعی در اختلافات حقوقی این روند را تضعیف میکند. مدلهای هوش مصنوعی بر اساس مجموعه دادههای بزرگ آموزش داده میشوند و قوانین جعلی میسازند؛ و در صورت درخواست کاربر محتوای جدید متنی، تصویری یا شنیداری بسازد.
اگرچه محتوای تولید شده توسط هوش مصنوعی شاید قانعکننده به نظر برسد، اما به دلیل «توهم» هوش مصنوعی میتواند نادرست باشد. این زمانی است که مدل هوش مصنوعی تلاش میکند تا شکافهای دادههای آموزشی خود را پر کند و در نتیجه محتوای نادرست تولید میکند که در نتیجه میتواند در اختلافات حقوقی دردسرساز باشد و به تصمیمات قانونی نادرست بیانجامد.
جنجالهای حقوقی هوش مصنوعی
شناختهشدهترین «پرونده جعلی» که هوش مصنوعی مولد آن را ساخته است به پرونده «ماتا علیه آویانکا» در آمریکا در سال ۲۰۲۳ برمیگردد که در آن وکلا خلاصهای از اتفاقات جعلی و استناد به پرونده را به دادگاه نیویورک ارسال کردند. این خلاصه با استفاده از چت جیپیتی مورد بررسی قرار گرفت و وکلا، غافل از آنکه این نرمافزار میتواند توهم بزند نتوانستند آنرا راستیآزمایی کنند. عواقب این بررسی فاجعهبار بود و پس از فاش شدن این خطا، دادگاه پرونده موکل آنها را رد کرد، وکلا نیز به دلیل سوءنیت تحریم شدند و شرکت حقوقیشان نیز جریمه شد. اقدامات آنان نیز به طور رسمی اعلان عمومی شد.
نمونههای مشهور
با وجود چنین اتفاقات نامطلوبی، نمونههای دیگری همچنان اتفاق میافتند. مایکل کوهن، وکیل سابق دونالد ترامپ، پروندههای وکالت خود را با استفاده از نرمافزار گوگل بارد (ربات مولد هوش مصنوعی) تنظیم میکرد ولی ادعا میکرد که کار خودش بوده و واقعی است. موارد جعلی دیگری از این دست نیز به تازگی در کانادا و بریتانیا جنجالآفرینی کرده است.
چنانچه این روند کنترل نشود، استفاده بیمحابا از هوش مصنوعیِ مولد اعتماد عمومی به سیستم قانونی را تضعیف میکند. قصور مداوم وکلا در استفاده از این ابزارها میتواند باعث گمراهی و ازدحام در دادگاهها شود، به منافع مشتریان آسیب برساند و به طور کلی حاکمیت قانون را تضعیف کند.
ما تصاویری از افراد مشهور را دیدهایم که توسط هوش مصنوعی و به روش جعل عمیق (دیپفیک) ساخته شدهاند. هوش مصنوعی همچنین در آهنگسازی، راندن اتومبیلهای مسابقهای بدون راننده و انتشار اطلاعات نادرست نیز نقش داشته است؛ بنابراین تعجب آور نیست که هوش مصنوعی نیز تأثیر قوی بر سیستمهای حقوقی ما دارد.
دادگاهها در پروندههای دعوی که وکلا آنها را پیگیری میکنند باید بر اساس اطلاعاتی که وکیل ارائه میکند تصمیمگیری کنند، بنابراین چنانچه محتوای پرونده با هوش مصنوعی جعل شود، بسیار نگرانکننده خواهد بود که نه تنها مسائل قانونی و اخلاقی ایجاد میکند، بلکه تهدیدی برای بیاعتمادی به سیستمهای حقوقی جهان است.
قوانین جعلی چگونه به وجود میآیند؟
شکی وجود ندارد که هوش مصنوعی مولد ابزاری قدرتمند با پتانسیل تحول آفرین برای جامعه، از جمله بسیاری از جنبههای سیستم حقوقی است. اما استفاده از آن با مسئولیتها و خطراتی همراه است. وکلا برای به کارگیری دقیق دانش و تجربه حرفهای آموزش دیدهاند و عموماً ریسکپذیر نیستند. با این حال، برخی از وکلای بیاحتیاط گرفتار خطاهای هوش مصنوعی شدهاند.
اگر هوش مصنوعی محتوای نادرست ایجاد کند یا محتوای نادرستی بسازد که به فرایندها قانونی راه پیدا کند، مشکلساز میشود، بهویژه زمانی که با فشار بر وکلا یا عدم دسترسی به خدمات حقوقی همراه باشد. این ترکیب مخرب میتواند منجر به بیدقتی و میانبرهایی در تحقیقات حقوقی و تهیه اسناد شود و مشکلاتی برای حرفه وکالت و عدم اعتماد عمومی به اجرای عدالت ایجاد کند.
اقدامات جهانی
در سرتاسر جهان، قانونگذاران و دادگاهها به روشهای مختلف نسبت به این جریان واکنش نشان دادهاند. چندین دادگاه ایالتی آمریکا راهنمایی، نظرات یا دستوراتی در مورد استفاده مولد از هوش مصنوعی صادر کرده اند که از پذیرش مسئولانه تا ممنوعیت کامل را شامل میشود. انجمنهای حقوقی در بریتانیا و بریتیش کلمبیا و دادگاههای نیوزلند نیز دستورالعملهایی را تدوین کردهاند.
در استرالیا، انجمن وکلای ان اس دابیلو (NSW) یک راهنمای هوش مصنوعی برای وکلای دادگستری دارد و مقالاتی را در مورد استفاده مسئولانه مطابق با قوانین رفتار وکلا منتشر کردهاند.
بسیاری از وکلا و قضات، مانند عموم مردم، درک درستی از هوش مصنوعی مولد دارند و میتوانند محدودیتها و مزایای آن را تشخیص دهند. اما افراد دیگری هم هستند که ممکن است آنقدر آگاه نباشند و نیاز به راهنمایی دارند.
در این میان رویکرد باید اجباری شود: وکلایی که از ابزارهای هوش مصنوعی مولد استفاده میکنند نمیتوانند آن را جایگزینی برای قضاوت و سخت کوشی خود بدانند و باید درستی و قابلیت اطمینان اطلاعاتی گردآوریشده را بررسی کنند.
به طور کلی، هوش مصنوعی مولد پتانسیل تحولآفرینی برای سیستم حقوقی دارد، استفاده از آن با مسئولیتها و خطراتی همراه است. ایجاد تعادل بین استفاده از مزایای هوش مصنوعی و اطمینان از اینکه استفاده از محتوای تولید شده توسط هوش مصنوعی یکپارچگی سیستم قانونی را تضعیف نمیکند، مهم است.
این گزارش از پایگاه اینترنتی کانوِرسِیشن برگردان شده است.
انتهای پیام/
نازنین احسانی طباطبایی