هوش مصنوعی و سلامت روان نوجوانان: اطلاعیه بهداشتی APA

 استفاده از هوش مصنوعی (AI) به سرعت در حال گسترش است و پذیرش آن در میان جوانان رو به افزایش است. هوش مصنوعی فرصت‌ها و کارایی‌های جدیدی ارائه می‌دهد، اما ادغام عمیق‌تر آن در زندگی روزمره نیازمند بررسی دقیق است تا اطمینان حاصل شود که ابزارهای هوش مصنوعی برای نوجوانان (که معمولاً بین ۱۰ تا ۲۵ سال سن دارند) ایمن هستند.

هوش مصنوعی در انواع مختلفی از برنامه‌ها و اپلیکیشن‌ها جای گرفته است، از کاربردهای ظریف‌تر (مانند متن پیش‌بینی‌شده، تکمیل خودکار، پیشنهادات خرید) تا حضور پررنگ‌تر (مانند چت‌بات‌ها، بررسی درخواست‌های شغلی، سیستم‌های هشدار). ما به «هوش مصنوعی مولد» اشاره می‌کنیم که شامل برنامه‌هایی است که می‌توانند متن شبیه به انسان تولید کنند، تصاویر واقعی‌مانند تصویر واقعی خلق کنند، صدا و ویدئوهای واقعی‌ مانند بسازند، که همگی می‌توانند بر ادراک و رفتار جوانان تأثیر بگذارند. همچنین به «هوش مصنوعی تعاملی» اشاره می‌کنیم که شامل پلتفرم‌ها یا ابزارهایی است که تعاملات انسان و هوش مصنوعی را تسهیل می‌کنند، مانند مکالمات در زمان واقعی، تجربیات یادگیری شخصی‌سازی‌شده، روابط و پیشنهادات محتوای متناسب. هر دو نوع هوش مصنوعی مولد و تعاملی پتانسیل تأثیرگذاری بر رشد، تعاملات و درک جهان توسط جوانان را دارند.
علاوه بر این، هوش مصنوعی به طور فزاینده‌ای برای خودکارسازی تصمیم‌گیری‌ها (مانند پذیرش در مدارس، تشخیص پزشکی، نمره‌دهی خودکار) استفاده می‌شود که می‌تواند پیامدهای طولانی‌مدتی برای جوانان داشته باشد.

اطمینان از ایمنی و سلامت روان نوجوانان نیازمند اقدام از سوی ذی‌نفعان متعدد است، از جمله والدین، مراقبان، مربیان، سیاست‌گذاران، متخصصان صنعت فناوری، نوجوانان و پلتفرم‌هایی که ابزارهای هوش مصنوعی را توسعه می‌دهند یا میزبانی می‌کنند. این گزارش مجموعه‌ای از توصیه‌ها ارائه می‌دهد که برخی از آن‌ها می‌توانند فوراً توسط والدین/مراقبان، جوانان یا مربیان اجرا شوند. برخی دیگر نیازمند تغییرات اساسی‌تر توسط پلتفرم‌ها، سیاست‌گذاران ویا متخصصان فناوری هستند. همه باید توصیه‌های زیر را بررسی کنند و بهترین راه برای اجرای هر یک را در نظر بگیرند

پیشینه و ملاحظات

 پیش‌تر، انجمن روانشناسی آمریکا (APA) اطلاعیه بهداشتی درباره استفاده نوجوانان از رسانه‌های اجتماعی منتشر کرد که تحقیقات تجربی درباره ارتباط آن با رشد روانی جوانان را تلفیق کرده بود. این اطلاعیه شامل توصیه‌های مبتنی بر شواهد برای به حداکثر رساندن مزایا و به حداقل رساندن خطرات برای جوانان بود.

 
با تکیه بر آن کار، این گزارش به استفاده نوظهور از هوش مصنوعی (AI) و ارتباط آن با سلامت روان جوانان می‌پردازد. در حالی که هوش مصنوعی به روش‌های جدید و فراگیر استفاده می‌شود، تحقیقات درباره تأثیرات آن هنوز در حال توسعه است. همانند گزارش‌های قبلی APA درباره استفاده از رسانه‌های اجتماعی و توصیه‌های محتوای ویدئویی سالم برای جوانان، توصیه‌های زیر بر اساس شواهد علمی موجود و ملاحظات زیر ارائه شده‌اند:

- تأثیرات هوش مصنوعی بر رشد نوجوانان ظریف و پیچیده است؛ هوش مصنوعی کاملاً «خوب» یا «بد» نیست. بررسی تأثیرات هوش مصنوعی باید شامل عواملی مانند کاربرد خاص هوش مصنوعی، ویژگی‌های طراحی برنامه‌ها، استفاده از داده‌ها برای آموزش سیستم‌های هوش مصنوعی و زمینه استفاده از این فناوری‌ها باشد.

- نوجوانی دوره رشدی طولانی است و سن به‌تنهایی نشانه کاملی برای بلوغ یا شایستگی روانی نیست، به این معنا که دو نوجوان هم‌سن بعید است در سطح یکسانی از بلوغ یا رشد باشند.

- نوجوانی دوره‌ای حیاتی برای رشد مغز است، زمانی که نوجوانان تغییرات رشدی بیشتری نسبت به هر دوره دیگری در زندگی، به جز نوزادی، تجربه می‌کنند، که این امر لزوم حفاظ‌های اضافی را برای این گروه بسیار مهم می‌کند.

- نوجوانان مختلف ممکن است به یک محتوای یکسان به شیوه‌های بسیار متفاوتی واکنش نشان دهند؛ تفاوت‌های فردی مانند خلق‌وخو، تنوع عصبی، قرار گرفتن در معرض استرس یا خشونت، انزوای اجتماعی، تجربیات травматik، سلامت روان، سن و/یا قرار گرفتن در معرض محرومیت‌های اجتماعی-اقتصادی یا ساختاری، همگی می‌توانند بر پاسخ‌های نوجوانان به محتوا یا تجربیات آنلاین تأثیر بگذارند.

- تعصبات، از جمله تبعیض، اغلب در خروجی‌های هوش مصنوعی به دلیل استفاده از داده‌های آموزشی غیرنماینده، کمبود تنوع در ورودی‌های آزمایش و توسعه محصول و این واقعیت ساده که برنامه‌نویسی کامپیوتری توسط انسان‌های بالغ طراحی شده است، وجود دارند.

- علاوه بر استفاده از هوش مصنوعی توسط همسالان نوجوانان، استفاده از هوش مصنوعی توسط بزرگسالان (مانند والدین و معلمان) می‌تواند تأثیر زیادی بر نگرش‌ها و رفتارهای خود نوجوانان در مورد هوش مصنوعی داشته باشد؛ بسیار مهم است که بزرگسالان رفتار سالم و تفکر انتقادی را برای نوجوانان الگوسازی کنند.

- ما از همه ذی‌نفعان می‌خواهیم که اطمینان حاصل کنند ایمنی جوانان در مراحل اولیه توسعه هوش مصنوعی در نظر گرفته شود. بسیار مهم است که اشتباهات زیان‌بار مشابهی که در مورد رسانه‌های اجتماعی رخ داد، تکرار نشود. این موضوع به دو دلیل حداقل بسیار مهم است. اول، برخلاف استفاده از رسانه‌های اجتماعی، ممکن است نوجوانان هنگام استفاده از هوش مصنوعی یا فناوری‌های مبتنی بر هوش مصنوعی متوجه آن نشوند و ندانند که هوش مصنوعی چگونه بر زندگی آن‌ها تأثیر می‌گذارد. دوم، هوش مصنوعی فرآیند تشخیص حقیقت را دشوارتر کرده است. اگرچه اطلاعات نادرست همیشه در اینترنت منتشر شده است، هوش مصنوعی می‌تواند اطلاعات نادرست را به روش‌های جدیدی تولید کند که باعث می‌شود بسیاری از کاربران باور کنند این اطلاعات درست هستند، و این نیازمند هوشیاری ویژه از سوی نوجوانان است.

توصیه‌ها

**ایجاد مرزهای سالم با روابط شبیه‌سازی‌شده انسانی** 

سیستم‌های هوش مصنوعی که برای شبیه‌سازی روابط انسانی طراحی شده‌اند، به‌ویژه آن‌هایی که در پلتفرم‌های هوش مصنوعی تعاملی به‌عنوان همراه یا متخصص (مانند چت‌بات‌هایی که برای ارائه حمایت اجتماعی یا سلامت روان طراحی شده‌اند) ارائه می‌شوند، باید حفاظ‌هایی را شامل شوند تا از آسیب‌های احتمالی به جوانان جلوگیری کرده و سلامت روان آن‌ها را تقویت کنند. این موضوع به دو دلیل حیاتی است.

 اول، نوجوانان نسبت به بزرگسالان کمتر احتمال دارد که دقت و نیت اطلاعات ارائه‌شده توسط یک ربات را در مقایسه با یک انسان زیر سؤال ببرند. برای مثال، نوجوانان ممکن است در تمایز بین همدلی شبیه‌سازی‌شده یک چت‌بات هوش مصنوعی یا همراه و درک واقعی انسانی دچار مشکل شوند. همچنین ممکن است از نیت متقاعدکننده یا سوگیری نهفته در توصیه‌های یک سیستم هوش مصنوعی آگاه نباشند. در نتیجه، جوانان احتمالاً اعتماد بیشتری به شخصیت‌های تولیدشده توسط هوش مصنوعی دارند و در برابر تأثیر آن‌ها، به‌ویژه آن‌هایی که خود را به‌عنوان دوست یا مربی معرفی می‌کنند، آسیب‌پذیرتر هستند.

 دوم، روابط نوجوانان با موجودیت‌های هوش مصنوعی ممکن است جایگزین یا مانع توسعه روابط سالم در دنیای واقعی شود، که این امر نیاز به تحقیقات بیشتر در مورد استفاده طولانی‌مدت نوجوانان از هوش مصنوعی را برجسته می‌کند. در حالی که این فناوری‌ها ممکن است همراهی و حمایت اجتماعی ارائه دهند، به‌ویژه برای جوانانی که در ایجاد روابط سالم با انسان‌هایی با علایق یا هویت‌های مشابه مشکل دارند، خطر ایجاد وابستگی‌های ناسالم و محو کردن مرز بین تعاملات انسانی و مصنوعی را نیز به همراه دارند. تحقیقات اولیه نشان می‌دهد که وابستگی قوی به شخصیت‌های تولیدشده توسط هوش مصنوعی ممکن است به مشکلاتی در یادگیری مهارت‌های اجتماعی و ایجاد ارتباطات عاطفی منجر شود. همچنین ممکن است توانایی نوجوانان برای تشکیل و حفظ روابط در دنیای واقعی را به‌طور منفی تحت تأثیر قرار دهد. بر این اساس، توصیه‌های زیر ارائه می‌شود:

 - توسعه‌دهندگان هوش مصنوعی باید ویژگی‌هایی را در اولویت قرار دهند که از بهره‌کشی، دستکاری و تضعیف روابط واقعی، از جمله روابط با والدین و مراقبان، جلوگیری کنند. این ممکن است شامل ایجاد اعلان‌ها و یادآوری‌های منظم باشد که به نوجوانان یادآوری کند در حال تعامل با یک ربات هستند، یا ابزارهای هوش مصنوعی می‌توانند منابع و پیشنهادهایی ارائه دهند تا نوجوانان را به جستجوی تعاملات انسانی تشویق کنند، به‌ویژه اگر نوجوانان نشان دهند که با چالش‌های مهمی مانند افکار خودکشی یا تهدیدهای سوءاستفاده مواجه هستند.

- اقدامات نظارتی باید اطمینان حاصل کنند که سیستم‌های هوش مصنوعی طراحی‌شده برای نوجوانان از سلامت روانی و عاطفی آن‌ها محافظت می‌کنند و فناوری‌های هوش مصنوعی ایمن و مفید هستند.

- مربیان و والدین می‌توانند از طریق برنامه‌های سوادآموزی، جوانان را در برابر آسیب‌های احتمالی روابط با شخصیت‌های هوش مصنوعی مقاوم کنند. این برنامه‌ها باید: الف) توضیح دهند که همه محتوای تولیدشده توسط هوش مصنوعی دقیق نیست، ب) نیت برخی از ربات‌های هوش مصنوعی را بحث کنند، و ج) به جوانان درباره نشانه‌های احتمالی اطلاعات نادرست یا اهداف بازاریابی که ممکن است در تعاملات انسان و ربات نهفته باشد، آموزش دهند. در چشم‌اندازی که شامل تعاملات آنلاین بیشتری بین جوانان نسبت به گذشته است، بسیار مهم است که والدین و مربیان فرصت‌هایی برای توسعه و حفظ روابط حمایتی، متقابل و شاد با انسان‌های دیگر برای نوجوانان فراهم کنند.

هوش مصنوعی برای بزرگسالان باید با هوش مصنوعی برای نوجوانان متفاوت باشد 

سیستم‌های هوش مصنوعی که برای نوجوانان طراحی شده‌اند یا به‌طور پیش‌بینی‌شده توسط آن‌ها قابل دسترسی هستند، باید با در نظر گرفتن صریح شایستگی‌ها، توانایی‌ها و آسیب‌پذیری‌های دوره نوجوانی توسعه یابند. برای مثال، توسعه‌دهندگان این سیستم‌ها باید اقداماتی انجام دهند تا از بهره‌کشی از حساسیت‌های جوانان، مانند حساسیت اجتماعی بالا و کنترل تکانه ناکامل که ممکن است در اوایل و اواسط نوجوانی رخ دهد، جلوگیری کنند. تجربیات هوش مصنوعی همچنین باید با سطح بلوغ روانی نوجوانان (مانند مهارت‌های خودتنظیمی، رشد فکری، درک خطرات) سازگار باشد و شامل حفاظ‌های مناسب سنی مانند آموزش با داده‌های مناسب سنی، تنظیمات پیش‌فرض محافظتی و انتخاب‌های طراحی متفاوت از آن‌هایی که برای کاربران بزرگسال در نظر گرفته شده‌اند، باشد.

توسعه‌دهندگان هوش مصنوعی و طراحان پلتفرم می‌توانند این مسائل را از طریق موارد زیر برطرف کنند:

 - **تنظیمات پیش‌فرض مناسب سنی**: تنظیمات حریم خصوصی، محدودیت‌های تعامل و محتوای مناسب سنی باید به‌صورت پیش‌فرض در بالاترین سطح محافظتی برای کاربران جوان تنظیم شوند.

- **شفافیت و توضیح‌پذیری**: تا حد ممکن، عملکرد سیستم‌های هوش مصنوعی باید به شکلی ارائه شود که برای کاربران جوان قابل فهم باشد و آن‌ها را قادر سازد تا انتخاب‌های آگاهانه‌ای درباره آنچه وارد سیستم می‌کنند و از آن دریافت می‌کنند، داشته باشند. برخی ویژگی‌ها باید امکان فعال یا غیرفعال کردن را داشته باشند. همچنین باید یادآوری‌های منظمی ارائه شود که کاربر در حال تعامل با فناوری غیرانسانی مبتنی بر هوش مصنوعی است.

- **کاهش طراحی متقاعدکننده**: ویژگی‌هایی که برای حداکثر کردن تعامل طراحی شده‌اند (مانند بازی‌سازی، پاسخ‌های شخصی‌سازی‌شده، اعلان‌های دستکاری‌کننده) باید در سیستم‌های هوش مصنوعی که برای جوانان طراحی شده‌اند یا به‌راحتی توسط آن‌ها قابل دسترسی هستند، به حداقل برسند یا حذف شوند.

- **نظارت و پشتیبانی انسانی**: مکانیسم‌هایی برای مداخله و پشتیبانی انسانی باید به‌راحتی در دسترس باشند تا کاربران جوان بتوانند نگرانی‌های خود را گزارش دهند، کمک بخواهند و از تعاملات بالقوه مضر خارج شوند. برای مثال، کاربری که بیان می‌کند افکار خودکشی دارد، باید به خط بحران و خودکشی 988 و سایر منابع مرتبط متصل شود.

- **آزمایش دقیق**: سیستم‌های هوش مصنوعی باید پیش از انتشار گسترده، تحت آزمایش‌های کامل و مداوم با گروه‌های متنوعی از کاربران جوان قرار گیرند تا پیامدهای ناخواسته و تأثیرات منفی بالقوه شناسایی و کاهش یابند. این امر می‌تواند با اطمینان از حضور دانشمندان، جوانان، اخلاق‌شناسان، متخصصان سلامت و سایر ذی‌نفعانی که در درجه اول مسئول حفاظت از نوجوانان هستند، در هیئت‌های مشورتی شرکت‌های هوش مصنوعی محقق شود.

تشویق به استفاده از هوش مصنوعی برای ارتقای رشد سالم

 ابزارهای هوش مصنوعی می‌توانند یادگیری و رشد دانش‌آموزان را به‌طور قابل‌توجهی بهبود بخشند. در زمینه یادگیری، هوش مصنوعی می‌تواند در طوفان فکری، خلق، سازمان‌دهی، خلاصه‌سازی و تلفیق اطلاعات، و ارائه منابع و راه‌حل‌هایی برای مشکلات چالش‌برانگیز کمک کند. تحقیقات نشان می‌دهد که این قابلیت‌ها درک و حفظ مفاهیم کلیدی را برای دانش‌آموزان آسان‌تر می‌کنند. از نظر رشد شناختی، هوش مصنوعی از طریق تکنیک‌های پرس‌وجوی پیشرفته که تفکر انتقادی را تحریک می‌کنند، ارائه راهنمایی گام‌به‌گام و یادگیری تطبیقی که بازخورد شخصی‌سازی‌شده ارائه می‌دهد، به رشد کمک می‌کند. اگر معلمان مهارت استفاده مناسب از هوش مصنوعی را داشته باشند و اطمینان حاصل کنند که استفاده از هوش مصنوعی جایگزین فرآیندهای لازم برای یادگیری دانش‌آموزان نشود، این ابزارها می‌توانند دانش‌آموزان را به کاوش عمیق‌تر مفاهیم، ساخت مهارت‌های پیشرفته و توسعه مهارت‌های پیچیده بین‌فردی تشویق کنند.

 با این حال، آگاهی دانش‌آموزان از محدودیت‌های هوش مصنوعی بسیار مهم است. خلاصه‌های تولیدشده توسط هوش مصنوعی ممکن است همیشه دقیق نباشند و دانش‌آموزان نباید بیش از حد به هوش مصنوعی وابسته شوند، زیرا این امر می‌تواند مانع توسعه دانش و مهارت‌های خودشان شود. علاوه بر این، هوش مصنوعی ممکن است نشانه‌های کلامی و غیرکلامی ظریفی را که تأکیدات و پیام‌های مهمی را منتقل می‌کنند، از دست بدهد. برای به حداکثر رساندن مزایای هوش مصنوعی، دانش‌آموزان باید محتوای تولیدشده توسط هوش مصنوعی را فعالانه زیر سؤال ببرند و به چالش بکشند و از ابزارهای هوش مصنوعی به‌عنوان مکمل، نه جایگزین، استراتژی‌ها و رویکردهای آموزشی موجود استفاده کنند. این امر مستلزم مشارکت در یادگیری فعال است، جایی که دانش‌آموزان با اطلاعات تعامل می‌کنند و دانش خود را می‌سازند، که تحقیقات نشان می‌دهد منجر به نتایج تحصیلی بهتری می‌شود.


محدود کردن دسترسی و تعامل با محتوای مضر و نادرست

همان‌طور که در توصیه‌های اخیر انجمن روانشناسی آمریکا (APA) درباره محتوای ویدئویی اشاره شده است، قرار گرفتن در معرض محتوای مضر با افزایش خطر اضطراب، افسردگی و سایر مشکلات سلامت روان مرتبط است. نوجوانانی که در معرض خشونت و محتوای گرافیکی قرار می‌گیرند، ممکن است نسبت به آن بی‌حس شوند یا آسیب ببینند، که این امر می‌تواند به عادی‌سازی رفتارها و نگرش‌های مضر برای جوانانی که به‌طور مداوم در معرض این محتوا هستند، کمک کند.

تحقیقات همچنین نشان می‌دهد که قرار گرفتن مکرر در معرض اطلاعات نادرست، احتمال باور به آن را افزایش می‌دهد و به گسترش آن کمک می‌کند. این قرار گرفتن مکرر ممکن است مهارت‌های تفکر تحلیلی را مختل کند و نوجوانان را حتی بیشتر در برابر اطلاعات نادرست آسیب‌پذیر کند.

 توسعه‌دهندگان سیستم‌های هوش مصنوعی که برای جوانان قابل دسترسی هستند، باید از حفاظ‌های قوی برای جلوگیری و کاهش قرار گرفتن جوانان در معرض محتوای مضر استفاده کنند. این محتوا شامل اما نه محدود به مطالبی است که برای سن آن‌ها نامناسب، خطرناک، غیرقانونی، دارای سوگیری و/یا تبعیض‌آمیز است، یا ممکن است رفتارهای مشابهی را در میان جوانان آسیب‌پذیر تحریک کند.
سیستم‌های گزارش‌دهی و بازخورد کاربران باید وجود داشته باشد تا به نوجوانان و مراقبان آن‌ها اجازه دهد محدودیت‌های محتوا را بر اساس نیازها و حساسیت‌های خاص خود شخصی‌سازی کنند.
منابع آموزشی باید ارائه شوند تا به نوجوانان و مراقبان آن‌ها کمک کنند محتوای مضر را شناسایی و از آن اجتناب کنند و خطرات مرتبط با تعامل با ابزارهای هوش مصنوعی را درک کنند.
همکاری با متخصصان سلامت روان، مربیان و روان‌شناسان برای اطمینان از مؤثر و مناسب بودن مکانیسم‌های فیلتر کردن محتوا ضروری است.


اهمیت دقت اطلاعات سلامت

 اطلاعات دقیق سلامت برای نوجوانان بسیار حیاتی است، زیرا آن‌ها در مرحله حساسی از رشد جسمی و روانی قرار دارند. داده‌ها نشان می‌دهند که جوانان اغلب اطلاعات سلامت را به‌صورت آنلاین جستجو می‌کنند. اطلاعات نادرست یا ناقص می‌تواند به رفتارهای مضر، تشخیص‌های اشتباه، و درمان‌های تأخیری یا نادرست منجر شود که این‌ها می‌توانند تأثیرات جدی بر سلامت روان و جسم داشته باشند.
 سیستم‌های هوش مصنوعی که اطلاعات یا توصیه‌های مرتبط با سلامت را به جوانان ارائه می‌دهند، از جمله آن‌هایی که از هوش مصنوعی مولد یا تعاملی استفاده می‌کنند، باید دقت و قابلیت اطمینان محتوای سلامت را تضمین کنند یا هشدارهای صریح و مکرر ارائه دهند که اطلاعات ممکن است از نظر علمی دقیق نباشند. این شامل آگاهی از این موضوع است که اطلاعات از منابعی که ادعا می‌کنند مبتنی بر شواهد تجربی هستند یا از منابع خودخوانده معتبر، از نظر کیفیت و دقت بسیار متفاوت‌اند و نباید در آموزش مدل‌های هوش مصنوعی به‌طور یکسان وزن‌دهی شوند.

سیستم‌های هوش مصنوعی باید شامل سلب مسئولیت‌های واضحی باشند که به‌طور برجسته و شفاف به کاربران جوان هشدار دهند که اطلاعات تولیدشده توسط هوش مصنوعی جایگزین مشاوره، تشخیص یا درمان حرفه‌ای سلامت نیست و تکیه بر اطلاعات سلامت تأییدنشده هوش مصنوعی نامناسب است.
پلتفرم‌های هوش مصنوعی باید منابع و یادآوری‌هایی برای نوجوانان فراهم کنند تا با یک انسان (مانند معلم، مشاور مدرسه، پزشک اطفال یا دیگر مراجع معتبر) یا منابع تأییدشده تماس بگیرند تا اطلاعات به‌دست‌آمده آنلاین را تأیید کنند و گام‌های بعدی مناسب را تضمین کنند.
والدین و مربیان باید به‌طور مداوم به نوجوانان یادآوری کنند که محتوایی که آنلاین و از هوش مصنوعی پیدا می‌کنند ممکن است دقیق نباشد و حتی ممکن است با نیت متقاعدکننده ارائه شده باشد و می‌تواند مضر باشد.


حفاظت از حریم خصوصی داده‌های نوجوانان

 سیستم‌های هوش مصنوعی که داده‌های نوجوانان را جمع‌آوری یا پردازش می‌کنند، باید اولویت را به حریم خصوصی و سلامت روان آن‌ها بدهند، نه به سود تجاری. این امر مستلزم حداکثر شفافیت و کنترل کاربر و به حداقل رساندن آسیب‌های احتمالی مرتبط با جمع‌آوری، استفاده، سوءاستفاده و دستکاری داده‌هاست. پلتفرم‌ها باید استفاده از داده‌های نوجوانان برای تبلیغات هدفمند، بازاریابی شخصی‌سازی‌شده که از رشد ناکامل مغزی آن‌ها سوءاستفاده می‌کند، فروش داده‌های کاربران به اشخاص ثالث، یا هر هدفی فراتر از آنچه به‌طور صریح برای آن جمع‌آوری شده است، محدود کنند.

 شفافیت در جمع‌آوری و استفاده از داده‌ها، به شکلی واضح، قابل فهم و کاربرمحور، همراه با کسب رضایت آگاهانه از کاربران و مراقبان، ضروری است. علاوه بر این، باید توجه داشت که داده‌های جمع‌آوری‌شده توسط هوش مصنوعی، از جمله اطلاعات بیومتریک و عصبی از فناوری‌های نوظهور، می‌توانند بینش‌هایی درباره حالات روانی و فرآیندهای شناختی فراهم کنند. سیستم‌های هوش مصنوعی باید این اطلاعات حساس را محافظت کنند و حق اساسی نوجوانان به حریم خصوصی را رعایت کنند.


حفاظت از شباهت‌های جوانان

 سوءاستفاده از شباهت‌های نوجوانان (مانند تصاویر، صداها) می‌تواند به ایجاد و انتشار محتوای مضر، از جمله نفرت‌پراکنی سایبری، آزار و اذیت سایبری و مواد سوءاستفاده جنسی مانند «دیپ‌فیک‌ها» و تصاویر صریح غیرمجاز منجر شود. این اقدامات می‌توانند تأثیرات روانی و عاطفی شدیدی بر افراد جوان داشته باشند، از جمله افزایش خطر افسردگی، اضطراب و رفتارهای مرتبط با خودکشی.
 پلتفرم‌ها و سیستم‌های هوش مصنوعی باید محدودیت‌های سختگیرانه‌ای بر استفاده از شباهت‌های جوانان اعمال کنند تا از ایجاد و انتشار محتوای مضر جلوگیری شود. این محدودیت‌ها باید شامل ورودی و خروجی محتوا در پلتفرم‌های هوش مصنوعی باشد. مکانیسم‌هایی برای نظارت بر رعایت و اجرای این محدودیت‌ها باید ایجاد شود تا پایبندی به آن‌ها تضمین گردد.

والدین، مراقبان و مربیان باید به جوانان خطرات ارسال تصاویر آنلاین و استراتژی‌هایی برای مواجهه با تصاویر همسالان یا خودشان که ممکن است ناراحت‌کننده، نامناسب یا غیرقانونی باشند، آموزش دهند.
مربیان باید سیاست‌هایی را برای مدیریت ایجاد و گسترش محتوای نفرت‌انگیز تولیدشده توسط هوش مصنوعی در مدارس در نظر بگیرند.


توانمندسازی والدین و مراقبان

والدین و مراقبان نقش حیاتی در هدایت و محافظت از نوجوانان در هنگام استفاده از فناوری‌های هوش مصنوعی ایفا می‌کنند. با این حال، آن‌ها اغلب زمان یا ظرفیت محدودی برای یادگیری درباره مناسب بودن سنی، ایمنی، شیوع و خطرات و مزایای بالقوه این فناوری‌ها دارند.

ذی‌نفعان صنعت، سیاست‌گذاران، مربیان، روان‌شناسان و سایر متخصصان سلامت باید همکاری کنند تا منابع در دسترس و کاربرپسندی را توسعه دهند و پیاده‌سازی کنند که راهنمایی‌های روشنی درباره مناسب بودن سنی، ایمنی و خطرات و مزایای بالقوه فناوری‌های هوش مصنوعی قابل دسترسی برای جوانان ارائه دهند، همچنین سواد لازم برای چگونگی گفت‌وگو با آن‌ها درباره هوش مصنوعی را فراهم کنند. این منابع باید فراتر از رتبه‌بندی‌های ساده باشند و شامل توضیحات مفصلی درباره روش‌های جمع‌آوری داده‌ها، سوگیری‌های الگوریتمی و پتانسیل عناصر طراحی دستکاری‌کننده یا اعتیادآور باشند.

تنظیمات کنترل والدین قابل تنظیم و در دسترس و آموزش‌های تعاملی مورد نیاز برای شناسایی و کاهش خطرات آنلاین باید گنجانده شوند. این منابع باید مشابه سیستم‌های موجود برای فیلم‌ها، بازی‌های ویدئویی و موسیقی باشند و راهی مختصر و قابل فهم برای بزرگسالان فراهم کنند تا تصمیمات آگاهانه‌ای درباره تعاملات فرزندانشان با هوش مصنوعی بگیرند بدون نیاز به تحقیقات گسترده فردی. به‌طور حیاتی، این مواد باید به‌طور منظم به‌روزرسانی شوند تا منعکس‌کننده چشم‌انداز به‌سرعت در حال تحول هوش مصنوعی باشند. این منابع باید با تنظیمات پیش‌فرض و ابزارهای والدین همراه شوند که به مراقبان امکان می‌دهند به‌راحتی پارامترهایی برای استفاده نوجوانان از فناوری‌های مبتنی بر هوش مصنوعی تنظیم کنند و دیدی نسبت به تعاملات بالقوه مضر داشته باشند.


پیاده‌سازی آموزش جامع سواد هوش مصنوعی

 سواد هوش مصنوعی برای نوجوانان و افرادی که از آن‌ها حمایت و آموزش می‌دهند، برای هدایت در جهانی که روزبه‌روز بیشتر تحت تأثیر هوش مصنوعی قرار می‌گیرد، ضروری است. درک نحوه عملکرد هوش مصنوعی، مزایا، محدودیت‌ها و خطرات آن برای تصمیم‌گیری آگاهانه و استفاده مسئولانه از هوش مصنوعی حیاتی است. این آموزش باید جوانان را با دانش و مهارت‌هایی مجهز کند تا بفهمند هوش مصنوعی چیست، چگونه کار می‌کند، مزایا و محدودیت‌های بالقوه آن، نگرانی‌های حریم خصوصی درباره داده‌های شخصی و خطرات وابستگی بیش از حد به آن چیست. به‌طور خاص، این آموزش باید بر سوگیری الگوریتمی تمرکز داشته باشد: اینکه چگونه سوگیری‌ها می‌توانند به دلیل داده‌های آموزشی ناقص، طراحی مدل‌های معیوب یا تیم‌های توسعه و آزمایش غیرنماینده در سیستم‌های هوش مصنوعی جاسازی شوند. کاربران جوان باید درک کنند که چگونه این سوگیری‌ها می‌توانند به اطلاعات ناقص یا نادرست منجر شوند که اسطوره‌ها، نادرستی‌ها و/یا باورهای منسوخ را تداوم می‌بخشند. این سوگیری‌ها حتی می‌توانند به اطلاعات تبعیض‌آمیز یا ناعادلانه، به‌ویژه در مورد گروه‌های آسیب‌پذیر، منجر شوند. آموزش باید شامل نکاتی درباره چگونگی ارزیابی انتقادی خروجی‌ها و تعاملات تولیدشده توسط هوش مصنوعی برای شناسایی و به چالش کشیدن سوگیری‌های بالقوه باشد. هدف کلی این است که جوانان را قادر سازد تا از هوش مصنوعی به‌صورت ایمن، مسئولانه، انتقادی و اخلاقی استفاده کنند. رویکردی چندجانبه و چندذی‌نفعی ضروری است.

 - **مربیان** باید سواد هوش مصنوعی را در برنامه‌های درسی اصلی، شامل علوم کامپیوتر، مطالعات اجتماعی و درس‌های اخلاق ادغام کنند؛ آموزش معلمان در مورد مفاهیم هوش مصنوعی، سوگیری الگوریتمی و استفاده مسئولانه از هوش مصنوعی ارائه دهند؛ تجربیات یادگیری عملی با ابزارها و پلتفرم‌های هوش مصنوعی فراهم کنند که بر ارزیابی انتقادی محتوای تولیدشده توسط هوش مصنوعی تأکید دارد؛ و بحث‌هایی درباره پیامدهای اخلاقی هوش مصنوعی، از جمله حریم خصوصی، امنیت داده‌ها، شفافیت، سوگیری احتمالی و تأثیرات اجتماعی بالقوه تسهیل کنند.

- **سیاست‌گذاران** باید دستورالعمل‌های ملی و ایالتی برای آموزش سواد هوش مصنوعی تدوین کنند، بودجه‌ای برای تحقیق و توسعه منابع سواد هوش مصنوعی و برنامه‌های آموزش معلمان اختصاص دهند، قوانینی وضع کنند که آموزش سواد هوش مصنوعی مناسب با سن را در مدارس اجباری کند، و کمپین‌های آگاهی عمومی درباره خطرات و مزایای بالقوه هوش مصنوعی ترویج دهند.

- **توسعه‌دهندگان فناوری** باید توضیحات شفاف و در دسترسی از الگوریتم‌های هوش مصنوعی و روش‌های جمع‌آوری داده‌ها ایجاد کنند، ابزارها و منابع آموزشی برای کمک به کاربران در درک نحوه عملکرد سیستم‌های هوش مصنوعی، از جمله توضیحات سوگیری الگوریتمی، توسعه دهند، با مربیان برای ایجاد برنامه‌های درسی سواد هوش مصنوعی مناسب با سن همکاری کنند، ابزارهای تشخیص و کاهش سوگیری را در پلتفرم‌های هوش مصنوعی ادغام کنند، و مکانیسم‌های گزارش‌دهی ساده و آسان برای کاربران جهت گزارش سوگیری‌های مشکوک ارائه دهند.

اولویت‌بندی و تأمین مالی تحقیقات علمی دقیق درباره تأثیر هوش مصنوعی بر رشد نوجوانان

 برای درک جامع تعامل پیچیده بین فناوری‌های هوش مصنوعی و سلامت روان نوجوانان، سرمایه‌گذاری قابل‌توجه و پایدار در تحقیقات علمی ضروری است. این امر مستلزم موارد زیر است:

 - **مطالعات طولی**: تأمین مالی برای تحقیقات طولی گسترده به‌منظور ردیابی مسیرهای رشدی نوجوانانی که در طول زمان با هوش مصنوعی تعامل دارند.

- **طرح‌های پژوهشی**: طراحی‌هایی که امکان شناسایی روابط علّی و اثرات بلندمدت را فراهم کنند.

- **مطالعات جمعیت‌های متنوع**: گسترش تحقیقات برای شامل کردن کودکان خردسال‌تر و جمعیت‌های حاشیه‌ای و آسیب‌پذیر، به‌منظور اطمینان از اینکه یافته‌ها قابل تعمیم هستند و در عین حال به آسیب‌پذیری‌های خاص برخی گروه‌ها توجه دارند.

- **دسترسی و شفافیت داده‌ها**: توسعه و پیاده‌سازی مکانیسم‌هایی برای دسترسی دانشمندان مستقل به داده‌های مرتبط، از جمله داده‌های در اختیار شرکت‌های فناوری، به‌منظور تسهیل بررسی دقیق و بی‌طرفانه روابط بین استفاده از هوش مصنوعی و رشد نوجوانان. این شامل داده‌های مربوط به عملکردهای الگوریتمی، نظارت بر محتوا و معیارهای تعامل کاربران است.

- **همکاری بین‌رشته‌ای**: تقویت همکاری بین روان‌شناسان، عصب‌شناسان، دانشمندان کامپیوتر، اخلاق‌شناسان، مربیان، کارشناسان بهداشت عمومی، جوانان و والدین/مراقبان برای توسعه درک جامعی از تأثیرات چندوجهی هوش مصنوعی.

ترجمه شده  از مقاله Artificial intelligence and adolescent well-being در انجمن روانشناسی آمریکا (APA)

هیئت مشورتی متخصصان

**اعضا (به ترتیب حروف الفبا)**

 - **مری آلورد، دکترا**، روان‌شناس، بنیان‌گذار Alvord, Baker & Associates, LLC و Resilience Across Borders, Inc
- **داون بوندز، دکترا، PMHNP-BC، FAAN**، دانشیار، دانشکده پرستاری سو و بیل گروس، دانشگاه کالیفرنیا، ایرواین 
- **لیندا چارمارامان، دکترا**، بنیان‌گذار/مدیر آزمایشگاه تحقیقاتی جوانان، رسانه و سلامت روان؛ پژوهشگر ارشد، مراکز ولزلی برای زنان، کالج ولزلی 
- **سوفیا چوکاس-بردلی، دکترا**، دانشیار روان‌شناسی، دانشگاه پیتسبورگ 
- **دوروتی اسپلج، دکترا**، استاد برجسته آموزش ویلیام سی. فرایدی، دانشگاه کارولینای شمالی در چپل هیل 
- **الن فیتزسیمونز-کرافت، دکترا**، دانشیار علوم روان‌شناختی و مغزی و روان‌پزشکی، دانشگاه واشنگتن در سنت لوئیس 
- **جاشوا ای. گودمن، دکترا**، دانشیار، گروه روان‌شناسی، دانشگاه اورگن جنوبی 
- **جسیکا همیلتون، دکترا**، استادیار، گروه روان‌شناسی، دانشگاه راتگرز–نیو برانزویک 
- **مری آن مک‌کیب، دکترا، ABPP**، عضو عمومی هیئت مدیره، انجمن روان‌شناسی آمریکا؛ فعالیت بالینی مستقل 
- **ژاکلین نسی، دکترا**، استادیار، گروه روان‌پزشکی و رفتار انسانی، دانشکده پزشکی آلپرت دانشگاه براون 
- **گرنت جی. ریچ، دکترا**، رئیس سابق انجمن روان‌شناسی رسانه و فناوری؛ عضو ارشد هیئت علمی، دانشگاه والدن، جونو، آلاسکا 
- **برندشا تاینز، دکترا**، استاد آموزش و روان‌شناسی و مدیر مرکز یادگیری و توسعه توانمند با فناوری، دانشگاه کالیفرنیای جنوبی 
- **اس. کریگ واتکینز، دکترا**، استاد صدساله ارنست ای. شارپ، دانشگاه تگزاس در آستین

مسئولین کارکنان APA

- **میچل جی. پرینستین، دکترا، ABPP**، رئیس بخش روان‌شناسی، انجمن روان‌شناسی آمریکا؛ استاد برجسته جان ون سترز در روان‌شناسی و علوم اعصاب، دانشگاه کارولینای شمالی در چپل هیل 
- **کوربین اوانز، JD**، معاون رئیس حمایت از علم و فناوری 
- **لودمیلا نونز، دکترا**، مدیر ارشد دانش و تخصص علمی 

 مشاوران کارکنان APA

- **نیکول بارنز، دکترا**، مدیر ارشد یادگیری و سلامت روان کودکان و نوجوانان 
- **تونی هابش**، مدیر ارشد یکپارچه‌سازی کسب‌وکار و مدیر ارشد اطلاعات 
- **بت ام. شوارتز، دکترا**، مدیر ارشد آموزش روان‌شناسی پیش‌دانشگاهی و کارشناسی 
- **دنیس پی. استول، JD، دکترا**، رئیس روان‌شناسی کاربردی 
- **لورن سامرز، JD، دکترا**، معاون رئیس روان‌شناسی در راستای منافع عمومی 
- **وندی آر. ویلیامز، دکترا**، مدیر ارشد مطالعات تکمیلی 
- **آرون وود**، رئیس مدیریت محصول و محتوا، انتشارات APA 
- **وایل رایت، دکترا**، مدیر ارشد نوآوری در مراقبت‌های بهداشتی

نشریات و منابع منتخب

1 Hopelab, Common Sense Media, & The Center for Digital Thriving at Harvard Graduate School of Education. (2025). Teen and young adult perspectives on generative AI: Patterns of use, excitements, and concerns. Hopelab. https://hopelab.org/stories/teen-and-young-adult-perspectives-on-generative-ai

2 Orben, A., Przybylski, A. K., Blakemore, S.-J., & Kievit, R. A. (2022). Windows of developmental sensitivity to social media. Nature Communications, 13(1), Article 1649. https://doi.org/10.1038/s41467-022-29296-3

3 Crone, E. A., & Konijn, E. A. (2018). Media use and brain development during adolescence. Nature Communications, 9, 588. https://doi.org/10.1038/s41467-018-03126-x

4 Feuerriegel, S., Hartmann, J., Janiesch, C. (2024). Generative AI. Business & Information Systems Engineering, 66(1), 111–126. https://doi.org/10.1007/s12599-023-00834-7

5 Raees, M., Meijerink, I., Lykourentzou, I., Khan, V.-J., & Papangelis, K. (2024). From explainable to interactive AI: A literature review on current trends in human-AI interaction. International Journal of Human-Computer Studies, 172, Article 103234. https://doi.org/10.1016/j.ijhcs.2024.103301

6 Kipke, M. D. (Ed.). (1999). Adolescent development and the biology of puberty: Summary of a workshop on new research. National Academies Press.

7 Somerville, L. H., & Casey, B. J. (2010). Developmental neurobiology of cognitive control and motivational systems. Current Opinion in Neurobiology, 20(2), 236–241. https://doi.org/10.1016/j.conb.2010.01.006

8 Mills, K. L., Lalonde, F., Clasen, L. S., Giedd, J. N., & Blakemore, S.-J. (2012). Developmental changes in the structure of the social brain in late childhood and adolescence. Social Cognitive and Affective Neuroscience, 9(1), 123–131. https://doi.org/10.1093/scan/nss113

9 Valkenburg, P. M., & Peter, J. (2013). The differential susceptibility to media effects model. Journal of Communication, 63(2), 221–243. https://doi.org/10.1111/jcom.12024

10 Kardova, N., Smahel, D., Machackova, H., & Subrahmanyam, K. (2021). Who is exposed to harmful content? The role of risk and protective factors among Czech, Finnish, and Spanish adolescents. Journal of Youth and Adolescence, 50(12), 2294–2310. doi: 10.1007/s10964-021-01422-2

11 Tay, L., Woo, S. E., Hickman, L., Booth, B. M., & D’Mello, S. (2022). A conceptual framework for investigating and mitigating machine-learning measurement bias (MLMB) in psychological assessment. Advances in Methods and Practices in Psychological Science, 5(1), 1–14. https://doi.org/10.1177/25152459211061337

12 Landers, R. N., & Behrend, T. S. (2023). Auditing the AI auditors: A framework for evaluating fairness and bias in high stakes AI predictive models. American Psychologist, 78(1), 36–49. https://doi.org/10.1037/amp0000972

13 Bandura, A. (1971). Social learning theory. General Learning Press.

14 White House Office of Science and Technology Policy. (2022). Blueprint for an AI Bill of Rights: Making automated systems work for the American people. The White House. https://bidenwhitehouse.archives.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf)

15 5Rights Foundation. (n.d.). Children & AI Design Code. 5Rights Foundation. https://5rightsfoundation.com/children-and-ai-code-of-conduct/#:~:text=Overview,children%20by%20design%20and%20default.

16 Garimella, K., & Chauchard, S. (2024). How prevalent is AI misinformation? What our studies in India show so far. Nature, 630, 32–34. https://doi.org/10.1038/d41586-024-01588-2

17 Boine, C. (2023, Winter). Emotional attachment to AI companions and European law. MIT Case Studies in Social and Ethical Responsibilities of Computing. https://doi.org/10.21428/2c646de5.db67ec7f

18 Van Der Hof, S., Lievens, E., Milkaite, I., Verdoodt, V., Hannema, T., & Liefaard, T. (2020). The child’s right to protection against economic exploitation in the digital world. The International Journal of Children’s Rights, 28(4), 833–859.https://doi.org/10.1163/15718182-28040003

19 Knoll, L. J., Magis-Weinberg, L., Speekenbrink, M., & Blakemore, S.-J. (2015). Social influence on risk perception during adolescence. Psychological Science, 26(5), 583–592. https://doi.org/10.1177/0956797615569578

20 Zaki, J., Schirmer, J., & Mitchell, J. P. (2011). Social influence modulates the neural computation of value. Psychological Science, 22(7), 894–900. https://doi.org/10.1177/0956797611411057

21 van Duijvenvoorde, A. C. K., Peters, S., Braams, B. R., & Crone, E. A. (2016). What motivates adolescents? Neural responses to rewards and their influence on adolescents’ risk taking, learning, and cognitive control. Neuroscience & Biobehavioral Reviews, 70, 135–147. https://doi.org/10.1016/j.neubiorev.2016.06.037

22 Bragazzi, N., Crapanzano, A., Converti, M., Zerbetto, R., & Khamisy-Farah, R. (2023). The impact of generative conversational artificial intelligence on the lesbian, gay, bisexual, transgender, and queer community: Scoping review. Journal of Medical Internet Research, 25, Article e52091. https://doi.org/10.2196/52091

23 Zimmerman, A., Janhonen, J., & Beer, E. (2023). Human/AI relationships: Challenges, downsides, and impacts on human/human relationships. AI and Ethics, 4, 1555–1567.https://doi.org/10.1007/s43681-023-00348-8

24 Bragazzi, N., Crapanzano, A., Converti, M., Zerbetto, R., & Khamisy-Farah, R. (2023). The impact of generative conversational artificial intelligence on the lesbian, gay, bisexual, transgender, and queer community: Scoping review. Journal of Medical Internet Research, 25, e52091. https://doi.org/10.2196/52091

25 van Der Hof, S., Lievens, E., Milkaite, I., Verdoodt, V., Hannema, T., & Liefaard, T. (2020). The child’s right to protection against economic exploitation in the digital world. The International Journal of Children’s Rights, 28(4), 833–859.https://doi.org/10.1163/15718182-28040003

26 D’Mello, S. K., Biddy, Q., Breideband, T., Bush, J., Chang, M., Cortez, A., Flanigan, J., Foltz, P. W., Gorman, J. C., Hirshfield, L., Ko, M.-L. M., Krishnaswamy, N., Lieber, R., Martin, J., Palmer, M., Penuel, W. R., Philip, T., Puntambekar, S., Pustejovsky, J., Reitman, J. G., Sumner, T., Tissenbaum, M., Walker, L., &Whitehill, J.(2024). From learning optimization to learner flourishing: Reimagining AI in education at the Institute for Student-AI Teaming (iSAT). AI Magazine, 45(1), 61–68. https://doi.org/10.1002/aaai.12158

27 D’Mello, S. K., Duran, N., Michaels, A., & Stewart, A. E. B. (2024). Improving collaborative problem-solving skills via automated feedback and scaffolding: A quasi-experimental study with CPSCoach 2.0. User Modeling and User-Adapted Interaction, 34, 1087–1125. https://doi.org/10.1007/s11257-023-09387-6

28 Hsu, A., & Chaudhary, D. (2023). AI4PCR: Artificial intelligence for practicing conflict resolution. Computers in Human Behavior: Artificial Humans, 1(1), 100002. https://doi.org/10.1016/j.chbah.2023.100002

29 Gökçearslan, S., Tosun, C., & Erdemir, Z. G. (2024). Benefits, challenges, and methods of artificial intelligence (AI) chatbots in education: A systematic literature review. International Journal of Technology in Education, 7(1), 19–39. https://doi.org/10.46328/ijte.600

30 Macnamara, B. N., Berber, I., Çavuşoğlu, M. C., Krupinski, E. A., Nallapareddy, N., Nelson, N. E., Smith, P. J., Wilson-Delfosse, A. L., & Ray, S. (2024). Does using artificial intelligence assistance accelerate skill decay and hinder skill development without performers’ awareness? Cognitive Research: Principles and Implications, 9, Article 46. https://doi.org/10.1186/s41235-024-00572-8

31 Freeman, S., Eddy, S. L., McDonough, M., Smith, M. K., Okoroafor, N., Jordt, H., & Wenderoth, M. P. (2014). Active learning increases student performance in science, engineering, and mathematics. Proceedings of the National Academy of Sciences, 111(23), 8410–8415.https://doi.org/10.1073/pnas.1319030111

32 Livingstone, S., & Smith, P. (2014). Annual research review: Children and young people in the digital age: The nature and prevalence of risks, harmful effects, and risk and protective factors, for mobile and internet usage. Journal of Child Psychology and Psychiatry, 55(6), 635–654. doi: 10.1111/ jcpp.12197

33 Holman, E. A., Garfin, D. R., & Silver, R. C. (2013). Media’s role in broadcasting acute stress following the Boston Marathon bombings. PNAS, 111(1), 93–98. https://doi. org/10.1073/pnas.1316265110

34 Tynes, B. M., Willis, H. A., Stewart, A., & Hamilton, M. (2019). Race-related traumatic events online and mental health among adolescents of color. Journal of Adolescent Health, 65(3), 371–377. https://doi.org/10.1016/j.jadohealth.2019.03.006

35 Coyne. S. M. (2016). Effects of viewing relational aggression on television on aggressive behavior in adolescents: A three year longitudinal study. Developmental Psychology, 52(2), 284–295. https://doi.org/10.1037/dev0000068

36 Alfurayj, H. S., Hurtado, B. F., Lutfi, S. L., & Rana, T. A. (2024). Exploring bystander contagion in cyberbully detection: A systematic review. Journal of Ambient Intelligence and Humanized Computing, 1–17. https://doi.org/10.1007/s12652-024-04831-w

37 Fazio, L. K., Rand, D. G., & Pennycook, G. (2019). Repetition increases perceived truth equally for plausible and implausible statements. Psychonomic Bulletin & Review, 26, 1705–1710. https://doi.org/10.3758/s13423-019-01651-4

38 Unkelbach, C., Koch, A., Silva, R. R., & Garcia-Marques, T. (2019). Truth by repetition: Explanations and implications. Current Directions in Psychological Science, 28(3), 247–253. https://doi.org/10.1177/0963721419827854

39 Fazio, L. K. (2020). Repetition increases perceived truth even for known falsehoods. Collabra: Psychology, 6(1), 38. https://doi.org/10.1525/collabra.347

40 Ross, R. M., Rand, D. G., & Pennycook, G. (2021). Beyond “fake news”: Analytic thinking and the detection of false and hyperpartisan news headlines. Judgment and Decision Making, 16(2), 484–504. https://doi.org/10.1017/S1930297500008640

41 Herriman, Z., Tchen, H., & Cafferty, P. W. (2025). Could be better: Adolescent access to health information and care. European Journal of Pediatrics, 184, Article 7. https://doi.org/10.1007/s00431-024-05868-x

42 Gray, N., Klein, J., Noyce, P., Sesselberg, T., & Cantrill, J. (2005). The internet: A window on adolescent health literacy. Journal of Adolescent Health, 37(3), 243.e1-243.e7. https://doi. org/10.1016/J.JADOHEALTH.2004.08.023

43 Lee, E. E., Torous, J., De Choudhury, M., Depp, C. A., Graham, S. A., Kim, H. C., Kim, Y., Paulus, M. P., Palsson, O., Thompson, W. K., & Jeste, D. V. (2021). Artificial intelligence for mental health care: Clinical applications, barriers, facilitators, and artificial wisdom. Biological Psychiatry: Cognitive Neuroscience and Neuroimaging, 6(9), 856–864. https://doi.org/10.1016/j.bpsc.2021.02.001

44 Monteith, S., Glenn, T., Geddes, J. R., Whybrow, P. C., Achtyes, E., & Bauer, M. (2024). Artificial intelligence and increasing misinformation. The British Journal of Psychiatry, 224(2), 33–35. https://doi:10.1192/bjp.2023.136

45 Martel, C., & Rand, D. G. (2023). Misinformation warning labels are widely effective: A review of warning effects and their moderating features. Current Opinion in Psychology, 54, Article 101710. https://doi.org/10.1016/j.copsyc.2023.101710

46 Lee, P., Bubeck, S., & Petro, J. (2023). Benefits, limits, and risks of GPT-4 as an AI chatbot for medicine. New England Journal of Medicine, 388(13), 1233–1239. https://doi.org/10.1056/nejmsr2214184

47 Millenson, M. L., Baldwin, J. L., Zipperer, L., & Singh, H. (2018). Beyond Dr. Google: The evidence on consumer-facing digital tools for diagnosis. Diagnosis, 5(3), 95–105. https://doi.org/10.1515/dx-2018-0009

48 Fosch-Villaronga, E., Van Der Hof, S., Lutz, C., & Tamò-Larrieux, A. (2023). Toy story or children’s story? Putting children and their rights at the forefront of the artificial intelligence revolution. AI & Society, 38, 133–152.https://doi.org/10.1007/s00146-021-01295-w

49 Blease, C. (2024). Open AI meets open notes: Surveillance capitalism, patient privacy and online record access. Journal of Medical Ethics: Journal of the Institute of Medical Ethics, 50(2), 84–89.https://doi.org/10.1136/jme-2023-109574

50 Zhang, H., Nakamura, T., Isohara, T., & Sakurai, K. (2023). A review on machine unlearning. SN Computer Science, 4, Article 337. https://doi.org/10.1007/s42979-023-01767-4

51 Harris, K. R. (2021). Video on demand: What deepfakes do and how they harm. Synthese, 199, 13373–13391. https://doi.org/10.1007/s11229-021-03379-y

52 Thiel, D., Stroebel, M., & Portnoff, R. (2023). Generative ML and CSAM: Implications and mitigations. Stanford Digital Repository. Available at https://purl.stanford.edu/jv206yg3793. https://doi.org/10.25740/jv206yg3793

53 Christensen, L. S., Moritz, D., & Pearson, A. (2021). Psychological perspectives of virtual child sexual abuse material. Sexuality & Culture, 25, 1353–1365. https://doi.org/10.1007/s12119-021-09820-1

54 OECD. (2021). Children in the digital environment: Revised typology of risks. OECD Digital Economy Papers, (302). https://www.oecd-ilibrary.org/science-and-technology/children-in-the-digital-environment_9b8f222e-en

55 Lobe, B., Velicu, A., Staksrud, E., Chaudron, S., & Di Gioia, R. (2021). How children (10–18) experienced online risks during the Covid-19 lockdown—Spring 2020: Key findings from surveying families in 11 European countries. Publications Office of the European Union. https://doi.org/10.2760/562534

56 Lake, C., Snell, A., Gormley, C., Vinyard, I., Gillett, M., Soltis Anderson, K., O’Neil, E., Alles, D., Collins Coleman, E., & Robb, M. (2025). The state of kids and families in America 2025: Executive summary. Common Sense Media. Retrieved from https://www.commonsensemedia.org/sites/default/files/research/report/2025-common-sense-summit-report-web-2.pdf

57 Chiu, T. K. F., Ahmad, Z., Ismailov, M., & Sanusi, I. T. (2024). What are artificial intelligence literacy and competency? A comprehensive framework to support them. Computers and Education Open, 6, Article 100171. https://doi.org/10.1016/j.caeo.2024.100171

58 Kong, S. C., Korte, S. M., Burton, S., Keskitalo, P., Turunen, T., Smith, D., Wang, L., Lee, J. C-K., & Beaton, M. C. (2024). Artificial Intelligence (AI) literacy: An argument for AI literacy in education. Innovations in Education and Teaching International, 62(2), 477–483. https://doi.org/10.1080/14703297.2024.2332744

59 Tiernan, P., Costello, E., Donlon, E., Parysz, M., & Scriney, M. (2023). Information and media literacy in the age of AI: Options for the future. Education Sciences, 13(9), 906. https://doi.org/10.3390/educsci13090906

60 Tynes, B., Stewart, A., Hamilton, M., & Willis, H. (2021). From Google searches to disinformation: Adolescent critical race digital literacy needs and skills. International Journal of Multicultural Education, 23(1), 110–130. https://doi.org/10.18251/ijme.v23i1.2463

61 Veldhuis, A., Lo, P. Y., Kenny, S., & Antle, A. N. (2025). Critical artificial intelligence literacy: A scoping review and framework synthesis. International Journal of Child-Computer Interaction, 43. https://doi.org/10.1016/j.ijcci.2024.100708

62 Schwartz, R., Vassilev, A., Greene, K., Perine, L., Burt, A., & Hall, P. (2022). Towards a standard for identifying and managing bias in artificial intelligence, NIST Special Publication 1270. National Institute of Standards and Technology. https://doi.org/10.6028/NIST.SP.1270

63 Kordzadeh, N., & Ghasemaghaei, M. (2021). Algorithmic bias: Review, synthesis, and future research directions. European Journal of Information Systems, 31(3), 388–409. https://doi.org/10.1080/0960085X.2021.1927212

64 Akter, S., McCarthy, G., Sajib, S., Michael, K., Dwivedi, Y. K., D’Ambra, J., & Shen, K. N. (2021). Algorithmic bias in data-driven innovation in the age of AI. International Journal of Information Management, 60, Article 102387. https://par.nsf.gov/servlets/purl/10344127

65 Landers, R. N., & Behrend, T. S. (2023). Auditing the AI auditors: A framework for evaluating fairness and bias in high stakes AI predictive models. American Psychologist, 78(1), 36–49. https://doi.org/10.1037/amp0000972

66 Allen, L. K., & Kendeou, P. (2023). ED-AI Lit: An interdisciplinary framework for AI literacy in education. Policy Insights from the Behavioral and Brain Sciences, 11(1), 3–10. https://doi.org/10.1177/23727322231220339

67 Southworth, J., Migliaccio, K., Glover, J., Glover, J., Reed, D., McCarty, C., Brendemuhl, J., & Thomas, A. (2023). Developing a model for AI across the curriculum: Transforming the higher education landscape via innovation in AI literacy. Computers and Education: Artificial Intelligence, 4, Article 100127. https://doi.org/10.1016/j.caeai.2023.100127

68 Yim, I. H. Y. (2024). A critical review of teaching and learning artificial intelligence (AI) literacy: Developing an intelligence-based AI literacy framework for primary school education. Computers and Education: Artificial Intelligence, 7, Article 100319. https://doi.org/10.1016/j.caeai.2024.100319

69 Allen, L. K., & Kendeou, P. (2023). ED-AI Lit: An interdisciplinary framework for AI literacy in education. Policy Insights from the Behavioral and Brain Sciences, 11(1), 3–10. https://doi.org/10.1177/23727322231220339

نظرات

پست‌های معروف از این وبلاگ

چگونه چیزهای آزاردهنده را تحمل کنیم

چت‌بات‌ها جایگزین درمانگران نمی‌شوند