هوش مصنوعی و سلامت روان نوجوانان: اطلاعیه بهداشتی APA
استفاده از هوش مصنوعی (AI) به سرعت در حال گسترش است و پذیرش آن در میان جوانان رو به افزایش است. هوش مصنوعی فرصتها و کاراییهای جدیدی ارائه میدهد، اما ادغام عمیقتر آن در زندگی روزمره نیازمند بررسی دقیق است تا اطمینان حاصل شود که ابزارهای هوش مصنوعی برای نوجوانان (که معمولاً بین ۱۰ تا ۲۵ سال سن دارند) ایمن هستند.
هوش مصنوعی در انواع مختلفی از برنامهها و اپلیکیشنها
جای گرفته است، از کاربردهای ظریفتر (مانند متن پیشبینیشده، تکمیل خودکار، پیشنهادات
خرید) تا حضور پررنگتر (مانند چتباتها، بررسی درخواستهای شغلی، سیستمهای هشدار).
ما به «هوش مصنوعی مولد» اشاره میکنیم که شامل برنامههایی است که میتوانند متن شبیه
به انسان تولید کنند، تصاویر واقعیمانند تصویر واقعی خلق کنند، صدا و ویدئوهای واقعی مانند بسازند،
که همگی میتوانند بر ادراک و رفتار جوانان تأثیر بگذارند. همچنین به «هوش مصنوعی تعاملی»
اشاره میکنیم که شامل پلتفرمها یا ابزارهایی است که تعاملات انسان و هوش مصنوعی را
تسهیل میکنند، مانند مکالمات در زمان واقعی، تجربیات یادگیری شخصیسازیشده، روابط
و پیشنهادات محتوای متناسب. هر دو نوع هوش مصنوعی مولد و تعاملی پتانسیل تأثیرگذاری
بر رشد، تعاملات و درک جهان توسط جوانان را دارند.
علاوه بر این، هوش مصنوعی به طور
فزایندهای برای خودکارسازی تصمیمگیریها (مانند پذیرش در مدارس، تشخیص پزشکی، نمرهدهی
خودکار) استفاده میشود که میتواند پیامدهای طولانیمدتی برای جوانان داشته باشد.
اطمینان از ایمنی و سلامت روان نوجوانان نیازمند اقدام
از سوی ذینفعان متعدد است، از جمله والدین، مراقبان، مربیان، سیاستگذاران، متخصصان
صنعت فناوری، نوجوانان و پلتفرمهایی که ابزارهای هوش مصنوعی را توسعه میدهند یا میزبانی
میکنند. این گزارش مجموعهای از توصیهها ارائه میدهد که برخی از آنها میتوانند
فوراً توسط والدین/مراقبان، جوانان یا مربیان اجرا شوند. برخی دیگر نیازمند تغییرات
اساسیتر توسط پلتفرمها، سیاستگذاران ویا متخصصان فناوری هستند. همه باید توصیههای
زیر را بررسی کنند و بهترین راه برای اجرای هر یک را در نظر بگیرند
پیشینه و ملاحظات
- تأثیرات هوش مصنوعی
بر رشد نوجوانان ظریف و پیچیده است؛ هوش مصنوعی کاملاً «خوب» یا «بد» نیست. بررسی تأثیرات
هوش مصنوعی باید شامل عواملی مانند کاربرد خاص هوش مصنوعی، ویژگیهای طراحی برنامهها،
استفاده از دادهها برای آموزش سیستمهای هوش مصنوعی و زمینه استفاده از این فناوریها
باشد.
- نوجوانی دوره رشدی
طولانی است و سن بهتنهایی نشانه کاملی برای بلوغ یا شایستگی روانی نیست، به این معنا
که دو نوجوان همسن بعید است در سطح یکسانی از بلوغ یا رشد باشند.
- نوجوانی دورهای
حیاتی برای رشد مغز است، زمانی که نوجوانان تغییرات رشدی بیشتری نسبت به هر دوره دیگری
در زندگی، به جز نوزادی، تجربه میکنند، که این امر لزوم حفاظهای اضافی را برای این
گروه بسیار مهم میکند.
- نوجوانان مختلف
ممکن است به یک محتوای یکسان به شیوههای بسیار متفاوتی واکنش نشان دهند؛ تفاوتهای
فردی مانند خلقوخو، تنوع عصبی، قرار گرفتن در معرض استرس یا خشونت، انزوای اجتماعی،
تجربیات травматik، سلامت روان، سن و/یا قرار گرفتن در معرض محرومیتهای اجتماعی-اقتصادی
یا ساختاری، همگی میتوانند بر پاسخهای نوجوانان به محتوا یا تجربیات آنلاین تأثیر
بگذارند.
- تعصبات، از جمله
تبعیض، اغلب در خروجیهای هوش مصنوعی به دلیل استفاده از دادههای آموزشی غیرنماینده،
کمبود تنوع در ورودیهای آزمایش و توسعه محصول و این واقعیت ساده که برنامهنویسی کامپیوتری
توسط انسانهای بالغ طراحی شده است، وجود دارند.
- علاوه بر استفاده
از هوش مصنوعی توسط همسالان نوجوانان، استفاده از هوش مصنوعی توسط بزرگسالان (مانند
والدین و معلمان) میتواند تأثیر زیادی بر نگرشها و رفتارهای خود نوجوانان در مورد
هوش مصنوعی داشته باشد؛ بسیار مهم است که بزرگسالان رفتار سالم و تفکر انتقادی را برای
نوجوانان الگوسازی کنند.
- ما از همه ذینفعان
میخواهیم که اطمینان حاصل کنند ایمنی جوانان در مراحل اولیه توسعه هوش مصنوعی در نظر
گرفته شود. بسیار مهم است که اشتباهات زیانبار مشابهی که در مورد رسانههای اجتماعی
رخ داد، تکرار نشود. این موضوع به دو دلیل حداقل بسیار مهم است. اول، برخلاف استفاده
از رسانههای اجتماعی، ممکن است نوجوانان هنگام استفاده از هوش مصنوعی یا فناوریهای
مبتنی بر هوش مصنوعی متوجه آن نشوند و ندانند که هوش مصنوعی چگونه بر زندگی آنها تأثیر
میگذارد. دوم، هوش مصنوعی فرآیند تشخیص حقیقت را دشوارتر کرده است. اگرچه اطلاعات
نادرست همیشه در اینترنت منتشر شده است، هوش مصنوعی میتواند اطلاعات نادرست را به
روشهای جدیدی تولید کند که باعث میشود بسیاری از کاربران باور کنند این اطلاعات درست
هستند، و این نیازمند هوشیاری ویژه از سوی نوجوانان است.
توصیهها
**ایجاد مرزهای سالم با روابط شبیهسازیشده انسانی**
سیستمهای هوش مصنوعی که برای شبیهسازی روابط انسانی
طراحی شدهاند، بهویژه آنهایی که در پلتفرمهای هوش مصنوعی تعاملی بهعنوان همراه
یا متخصص (مانند چتباتهایی که برای ارائه حمایت اجتماعی یا سلامت روان طراحی شدهاند)
ارائه میشوند، باید حفاظهایی را شامل شوند تا از آسیبهای احتمالی به جوانان جلوگیری
کرده و سلامت روان آنها را تقویت کنند. این موضوع به دو دلیل حیاتی است.
- اقدامات نظارتی
باید اطمینان حاصل کنند که سیستمهای هوش مصنوعی طراحیشده برای نوجوانان از سلامت
روانی و عاطفی آنها محافظت میکنند و فناوریهای هوش مصنوعی ایمن و مفید هستند.
- مربیان و والدین
میتوانند از طریق برنامههای سوادآموزی، جوانان را در برابر آسیبهای احتمالی روابط
با شخصیتهای هوش مصنوعی مقاوم کنند. این برنامهها باید: الف) توضیح دهند که همه محتوای
تولیدشده توسط هوش مصنوعی دقیق نیست، ب) نیت برخی از رباتهای هوش مصنوعی را بحث کنند،
و ج) به جوانان درباره نشانههای احتمالی اطلاعات نادرست یا اهداف بازاریابی که ممکن
است در تعاملات انسان و ربات نهفته باشد، آموزش دهند. در چشماندازی که شامل تعاملات
آنلاین بیشتری بین جوانان نسبت به گذشته است، بسیار مهم است که والدین و مربیان فرصتهایی
برای توسعه و حفظ روابط حمایتی، متقابل و شاد با انسانهای دیگر برای نوجوانان فراهم
کنند.
هوش مصنوعی برای بزرگسالان باید با هوش مصنوعی برای نوجوانان متفاوت باشد
سیستمهای هوش مصنوعی که برای نوجوانان طراحی شدهاند
یا بهطور پیشبینیشده توسط آنها قابل دسترسی هستند، باید با در نظر گرفتن صریح شایستگیها،
تواناییها و آسیبپذیریهای دوره نوجوانی توسعه یابند. برای مثال، توسعهدهندگان این
سیستمها باید اقداماتی انجام دهند تا از بهرهکشی از حساسیتهای جوانان، مانند حساسیت
اجتماعی بالا و کنترل تکانه ناکامل که ممکن است در اوایل و اواسط نوجوانی رخ دهد، جلوگیری
کنند. تجربیات هوش مصنوعی همچنین باید با سطح بلوغ روانی نوجوانان (مانند مهارتهای
خودتنظیمی، رشد فکری، درک خطرات) سازگار باشد و شامل حفاظهای مناسب سنی مانند آموزش
با دادههای مناسب سنی، تنظیمات پیشفرض محافظتی و انتخابهای طراحی متفاوت از آنهایی
که برای کاربران بزرگسال در نظر گرفته شدهاند، باشد.
توسعهدهندگان هوش مصنوعی و طراحان پلتفرم میتوانند این مسائل را از طریق موارد زیر برطرف کنند:
- **شفافیت و توضیحپذیری**:
تا حد ممکن، عملکرد سیستمهای هوش مصنوعی باید به شکلی ارائه شود که برای کاربران جوان
قابل فهم باشد و آنها را قادر سازد تا انتخابهای آگاهانهای درباره آنچه وارد سیستم
میکنند و از آن دریافت میکنند، داشته باشند. برخی ویژگیها باید امکان فعال یا غیرفعال
کردن را داشته باشند. همچنین باید یادآوریهای منظمی ارائه شود که کاربر در حال تعامل
با فناوری غیرانسانی مبتنی بر هوش مصنوعی است.
- **کاهش طراحی متقاعدکننده**:
ویژگیهایی که برای حداکثر کردن تعامل طراحی شدهاند (مانند بازیسازی، پاسخهای شخصیسازیشده،
اعلانهای دستکاریکننده) باید در سیستمهای هوش مصنوعی که برای جوانان طراحی شدهاند
یا بهراحتی توسط آنها قابل دسترسی هستند، به حداقل برسند یا حذف شوند.
- **نظارت و پشتیبانی
انسانی**: مکانیسمهایی برای مداخله و پشتیبانی انسانی باید بهراحتی در دسترس باشند
تا کاربران جوان بتوانند نگرانیهای خود را گزارش دهند، کمک بخواهند و از تعاملات بالقوه
مضر خارج شوند. برای مثال، کاربری که بیان میکند افکار خودکشی دارد، باید به خط بحران
و خودکشی 988 و سایر منابع مرتبط متصل شود.
- **آزمایش دقیق**:
سیستمهای هوش مصنوعی باید پیش از انتشار گسترده، تحت آزمایشهای کامل و مداوم با گروههای
متنوعی از کاربران جوان قرار گیرند تا پیامدهای ناخواسته و تأثیرات منفی بالقوه شناسایی
و کاهش یابند. این امر میتواند با اطمینان از حضور دانشمندان، جوانان، اخلاقشناسان،
متخصصان سلامت و سایر ذینفعانی که در درجه اول مسئول حفاظت از نوجوانان هستند، در
هیئتهای مشورتی شرکتهای هوش مصنوعی محقق شود.
تشویق به استفاده از هوش مصنوعی برای ارتقای رشد سالم
محدود کردن دسترسی و تعامل با محتوای مضر و نادرست
همانطور که در توصیههای اخیر انجمن روانشناسی
آمریکا (APA) درباره محتوای ویدئویی اشاره شده است، قرار گرفتن در معرض محتوای
مضر با افزایش خطر اضطراب، افسردگی و سایر مشکلات سلامت روان مرتبط است. نوجوانانی
که در معرض خشونت و محتوای گرافیکی قرار میگیرند، ممکن است نسبت به آن بیحس شوند
یا آسیب ببینند، که این امر میتواند به عادیسازی رفتارها و نگرشهای مضر برای جوانانی
که بهطور مداوم در معرض این محتوا هستند، کمک کند.
تحقیقات همچنین نشان میدهد که قرار گرفتن مکرر در معرض اطلاعات نادرست، احتمال باور به آن را افزایش میدهد و به گسترش آن کمک میکند. این قرار گرفتن مکرر ممکن است مهارتهای تفکر تحلیلی را مختل کند و نوجوانان را حتی بیشتر در برابر اطلاعات نادرست آسیبپذیر کند.
سیستمهای گزارشدهی و بازخورد کاربران باید وجود
داشته باشد تا به نوجوانان و مراقبان آنها اجازه دهد محدودیتهای محتوا را بر اساس
نیازها و حساسیتهای خاص خود شخصیسازی کنند.
منابع آموزشی باید ارائه شوند تا به نوجوانان و
مراقبان آنها کمک کنند محتوای مضر را شناسایی و از آن اجتناب کنند و خطرات مرتبط با
تعامل با ابزارهای هوش مصنوعی را درک کنند.
همکاری با متخصصان سلامت روان، مربیان و روانشناسان
برای اطمینان از مؤثر و مناسب بودن مکانیسمهای فیلتر کردن محتوا ضروری است.
اهمیت دقت اطلاعات سلامت
سیستمهای هوش مصنوعی باید شامل سلب مسئولیتهای
واضحی باشند که بهطور برجسته و شفاف به کاربران جوان هشدار دهند که اطلاعات تولیدشده
توسط هوش مصنوعی جایگزین مشاوره، تشخیص یا درمان حرفهای سلامت نیست و تکیه بر اطلاعات
سلامت تأییدنشده هوش مصنوعی نامناسب است.
پلتفرمهای هوش مصنوعی باید منابع و یادآوریهایی
برای نوجوانان فراهم کنند تا با یک انسان (مانند معلم، مشاور مدرسه، پزشک اطفال یا
دیگر مراجع معتبر) یا منابع تأییدشده تماس بگیرند تا اطلاعات بهدستآمده آنلاین را
تأیید کنند و گامهای بعدی مناسب را تضمین کنند.
والدین و مربیان باید بهطور مداوم به نوجوانان
یادآوری کنند که محتوایی که آنلاین و از هوش مصنوعی پیدا میکنند ممکن است دقیق نباشد
و حتی ممکن است با نیت متقاعدکننده ارائه شده باشد و میتواند مضر باشد.
حفاظت از حریم خصوصی دادههای نوجوانان
حفاظت از شباهتهای جوانان
والدین، مراقبان و مربیان باید به جوانان خطرات
ارسال تصاویر آنلاین و استراتژیهایی برای مواجهه با تصاویر همسالان یا خودشان که ممکن
است ناراحتکننده، نامناسب یا غیرقانونی باشند، آموزش دهند.
مربیان باید سیاستهایی را برای مدیریت ایجاد و گسترش
محتوای نفرتانگیز تولیدشده توسط هوش مصنوعی در مدارس در نظر بگیرند.
توانمندسازی والدین و مراقبان
والدین و مراقبان نقش حیاتی در هدایت و محافظت از
نوجوانان در هنگام استفاده از فناوریهای هوش مصنوعی ایفا میکنند. با این حال، آنها
اغلب زمان یا ظرفیت محدودی برای یادگیری درباره مناسب بودن سنی، ایمنی، شیوع و خطرات
و مزایای بالقوه این فناوریها دارند.
ذینفعان صنعت، سیاستگذاران، مربیان، روانشناسان و سایر متخصصان سلامت باید همکاری کنند تا منابع در دسترس و کاربرپسندی را توسعه دهند و پیادهسازی کنند که راهنماییهای روشنی درباره مناسب بودن سنی، ایمنی و خطرات و مزایای بالقوه فناوریهای هوش مصنوعی قابل دسترسی برای جوانان ارائه دهند، همچنین سواد لازم برای چگونگی گفتوگو با آنها درباره هوش مصنوعی را فراهم کنند. این منابع باید فراتر از رتبهبندیهای ساده باشند و شامل توضیحات مفصلی درباره روشهای جمعآوری دادهها، سوگیریهای الگوریتمی و پتانسیل عناصر طراحی دستکاریکننده یا اعتیادآور باشند.
تنظیمات کنترل والدین قابل تنظیم و در دسترس و آموزشهای
تعاملی مورد نیاز برای شناسایی و کاهش خطرات آنلاین باید گنجانده شوند. این منابع باید
مشابه سیستمهای موجود برای فیلمها، بازیهای ویدئویی و موسیقی باشند و راهی مختصر
و قابل فهم برای بزرگسالان فراهم کنند تا تصمیمات آگاهانهای درباره تعاملات فرزندانشان
با هوش مصنوعی بگیرند بدون نیاز به تحقیقات گسترده فردی. بهطور حیاتی، این مواد باید
بهطور منظم بهروزرسانی شوند تا منعکسکننده چشمانداز بهسرعت در حال تحول هوش مصنوعی
باشند. این منابع باید با تنظیمات پیشفرض و ابزارهای والدین همراه شوند که به مراقبان
امکان میدهند بهراحتی پارامترهایی برای استفاده نوجوانان از فناوریهای مبتنی بر
هوش مصنوعی تنظیم کنند و دیدی نسبت به تعاملات بالقوه مضر داشته باشند.
پیادهسازی آموزش جامع سواد هوش مصنوعی
- **سیاستگذاران**
باید دستورالعملهای ملی و ایالتی برای آموزش سواد هوش مصنوعی تدوین کنند، بودجهای
برای تحقیق و توسعه منابع سواد هوش مصنوعی و برنامههای آموزش معلمان اختصاص دهند،
قوانینی وضع کنند که آموزش سواد هوش مصنوعی مناسب با سن را در مدارس اجباری کند، و
کمپینهای آگاهی عمومی درباره خطرات و مزایای بالقوه هوش مصنوعی ترویج دهند.
- **توسعهدهندگان
فناوری** باید توضیحات شفاف و در دسترسی از الگوریتمهای هوش مصنوعی و روشهای جمعآوری
دادهها ایجاد کنند، ابزارها و منابع آموزشی برای کمک به کاربران در درک نحوه عملکرد
سیستمهای هوش مصنوعی، از جمله توضیحات سوگیری الگوریتمی، توسعه دهند، با مربیان برای
ایجاد برنامههای درسی سواد هوش مصنوعی مناسب با سن همکاری کنند، ابزارهای تشخیص و
کاهش سوگیری را در پلتفرمهای هوش مصنوعی ادغام کنند، و مکانیسمهای گزارشدهی ساده
و آسان برای کاربران جهت گزارش سوگیریهای مشکوک ارائه دهند.
اولویتبندی و تأمین مالی تحقیقات علمی دقیق درباره تأثیر هوش مصنوعی بر رشد نوجوانان
- **طرحهای پژوهشی**:
طراحیهایی که امکان شناسایی روابط علّی و اثرات بلندمدت را فراهم کنند.
- **مطالعات جمعیتهای
متنوع**: گسترش تحقیقات برای شامل کردن کودکان خردسالتر و جمعیتهای حاشیهای و آسیبپذیر،
بهمنظور اطمینان از اینکه یافتهها قابل تعمیم هستند و در عین حال به آسیبپذیریهای
خاص برخی گروهها توجه دارند.
- **دسترسی و شفافیت
دادهها**: توسعه و پیادهسازی مکانیسمهایی برای دسترسی دانشمندان مستقل به دادههای
مرتبط، از جمله دادههای در اختیار شرکتهای فناوری، بهمنظور تسهیل بررسی دقیق و بیطرفانه
روابط بین استفاده از هوش مصنوعی و رشد نوجوانان. این شامل دادههای مربوط به عملکردهای
الگوریتمی، نظارت بر محتوا و معیارهای تعامل کاربران است.
- **همکاری بینرشتهای**:
تقویت همکاری بین روانشناسان، عصبشناسان، دانشمندان کامپیوتر، اخلاقشناسان، مربیان،
کارشناسان بهداشت عمومی، جوانان و والدین/مراقبان برای توسعه درک جامعی از تأثیرات
چندوجهی هوش مصنوعی.
ترجمه شده از مقاله Artificial intelligence and adolescent well-being در انجمن روانشناسی آمریکا (APA)
هیئت مشورتی متخصصان
**اعضا (به ترتیب
حروف الفبا)**
- **داون بوندز، دکترا، PMHNP-BC، FAAN**، دانشیار، دانشکده پرستاری سو و بیل گروس، دانشگاه کالیفرنیا، ایرواین
- **لیندا چارمارامان، دکترا**، بنیانگذار/مدیر آزمایشگاه تحقیقاتی جوانان، رسانه و سلامت روان؛ پژوهشگر ارشد، مراکز ولزلی برای زنان، کالج ولزلی
- **سوفیا چوکاس-بردلی، دکترا**، دانشیار روانشناسی، دانشگاه پیتسبورگ
- **دوروتی اسپلج، دکترا**، استاد برجسته آموزش ویلیام سی. فرایدی، دانشگاه کارولینای شمالی در چپل هیل
- **الن فیتزسیمونز-کرافت، دکترا**، دانشیار علوم روانشناختی و مغزی و روانپزشکی، دانشگاه واشنگتن در سنت لوئیس
- **جاشوا ای. گودمن، دکترا**، دانشیار، گروه روانشناسی، دانشگاه اورگن جنوبی
- **جسیکا همیلتون، دکترا**، استادیار، گروه روانشناسی، دانشگاه راتگرز–نیو برانزویک
- **مری آن مککیب، دکترا، ABPP**، عضو عمومی هیئت مدیره، انجمن روانشناسی آمریکا؛ فعالیت بالینی مستقل
- **ژاکلین نسی، دکترا**، استادیار، گروه روانپزشکی و رفتار انسانی، دانشکده پزشکی آلپرت دانشگاه براون
- **گرنت جی. ریچ، دکترا**، رئیس سابق انجمن روانشناسی رسانه و فناوری؛ عضو ارشد هیئت علمی، دانشگاه والدن، جونو، آلاسکا
- **برندشا تاینز، دکترا**، استاد آموزش و روانشناسی و مدیر مرکز یادگیری و توسعه توانمند با فناوری، دانشگاه کالیفرنیای جنوبی
- **اس. کریگ واتکینز، دکترا**، استاد صدساله ارنست ای. شارپ، دانشگاه تگزاس در آستین
مسئولین کارکنان APA
- **میچل جی. پرینستین،
دکترا، ABPP**، رئیس بخش روانشناسی، انجمن روانشناسی آمریکا؛ استاد برجسته جان
ون سترز در روانشناسی و علوم اعصاب، دانشگاه کارولینای شمالی در چپل هیل
- **کوربین اوانز،
JD**،
معاون رئیس حمایت از علم و فناوری
- **لودمیلا نونز،
دکترا**، مدیر ارشد دانش و تخصص علمی
مشاوران کارکنان APA
- **نیکول بارنز،
دکترا**، مدیر ارشد یادگیری و سلامت روان کودکان و نوجوانان
- **تونی هابش**،
مدیر ارشد یکپارچهسازی کسبوکار و مدیر ارشد اطلاعات
- **بت ام. شوارتز،
دکترا**، مدیر ارشد آموزش روانشناسی پیشدانشگاهی و کارشناسی
- **دنیس پی. استول،
JD، دکترا**،
رئیس روانشناسی کاربردی
- **لورن سامرز،
JD، دکترا**،
معاون رئیس روانشناسی در راستای منافع عمومی
- **وندی آر. ویلیامز،
دکترا**، مدیر ارشد مطالعات تکمیلی
- **آرون وود**،
رئیس مدیریت محصول و محتوا، انتشارات APA
- **وایل رایت، دکترا**،
مدیر ارشد نوآوری در مراقبتهای بهداشتی
نشریات و منابع منتخب
1 Hopelab, Common Sense
Media, & The Center for Digital Thriving at Harvard Graduate School of
Education. (2025). Teen and young adult perspectives on generative AI:
Patterns of use, excitements, and concerns. Hopelab. https://hopelab.org/stories/teen-and-young-adult-perspectives-on-generative-ai
2 Orben, A., Przybylski, A.
K., Blakemore, S.-J., & Kievit, R. A. (2022). Windows of developmental
sensitivity to social media. Nature Communications, 13(1), Article
1649. https://doi.org/10.1038/s41467-022-29296-3
3 Crone, E. A., & Konijn,
E. A. (2018). Media use and brain development during adolescence. Nature
Communications, 9, 588. https://doi.org/10.1038/s41467-018-03126-x
4 Feuerriegel, S., Hartmann,
J., Janiesch, C. (2024). Generative AI. Business & Information Systems
Engineering, 66(1), 111–126. https://doi.org/10.1007/s12599-023-00834-7
5 Raees, M., Meijerink, I.,
Lykourentzou, I., Khan, V.-J., & Papangelis, K. (2024). From explainable to
interactive AI: A literature review on current trends in human-AI interaction.
International Journal of Human-Computer Studies, 172, Article 103234. https://doi.org/10.1016/j.ijhcs.2024.103301
6 Kipke, M. D. (Ed.). (1999).
Adolescent development and the biology of puberty: Summary of a workshop on new
research. National Academies Press.
7 Somerville, L. H., &
Casey, B. J. (2010). Developmental neurobiology of cognitive control and
motivational systems. Current Opinion in Neurobiology, 20(2), 236–241. https://doi.org/10.1016/j.conb.2010.01.006
8 Mills, K. L., Lalonde, F.,
Clasen, L. S., Giedd, J. N., & Blakemore, S.-J. (2012). Developmental
changes in the structure of the social brain in late childhood and adolescence.
Social Cognitive and Affective Neuroscience, 9(1), 123–131. https://doi.org/10.1093/scan/nss113
9 Valkenburg, P. M., &
Peter, J. (2013). The differential susceptibility to media effects model.
Journal of Communication, 63(2), 221–243. https://doi.org/10.1111/jcom.12024
10 Kardova, N., Smahel, D.,
Machackova, H., & Subrahmanyam, K. (2021). Who is exposed to harmful
content? The role of risk and protective factors among Czech, Finnish, and
Spanish adolescents. Journal of Youth and Adolescence, 50(12), 2294–2310. doi: 10.1007/s10964-021-01422-2
11 Tay, L., Woo, S. E.,
Hickman, L., Booth, B. M., & D’Mello, S. (2022). A conceptual framework for
investigating and mitigating machine-learning measurement bias (MLMB) in
psychological assessment. Advances in Methods and Practices in Psychological Science,
5(1), 1–14. https://doi.org/10.1177/25152459211061337
12 Landers, R. N., &
Behrend, T. S. (2023). Auditing the AI auditors: A framework for evaluating
fairness and bias in high stakes AI predictive models. American Psychologist,
78(1), 36–49. https://doi.org/10.1037/amp0000972
13 Bandura, A. (1971). Social
learning theory. General Learning Press.
14 White House Office of
Science and Technology Policy. (2022). Blueprint for an AI Bill of Rights:
Making automated systems work for the American people. The White House. https://bidenwhitehouse.archives.gov/wp-content/uploads/2022/10/Blueprint-for-an-AI-Bill-of-Rights.pdf)
15 5Rights Foundation.
(n.d.). Children & AI Design Code. 5Rights Foundation. https://5rightsfoundation.com/children-and-ai-code-of-conduct/#:~:text=Overview,children%20by%20design%20and%20default.
16 Garimella, K., &
Chauchard, S. (2024). How prevalent is AI misinformation? What our studies in
India show so far. Nature, 630, 32–34. https://doi.org/10.1038/d41586-024-01588-2
17 Boine, C. (2023, Winter).
Emotional attachment to AI companions and European law. MIT Case Studies in
Social and Ethical Responsibilities of Computing. https://doi.org/10.21428/2c646de5.db67ec7f
18 Van Der Hof, S., Lievens,
E., Milkaite, I., Verdoodt, V., Hannema, T., & Liefaard, T. (2020). The
child’s right to protection against economic exploitation in the digital world.
The International Journal of Children’s Rights, 28(4), 833–859.https://doi.org/10.1163/15718182-28040003
19 Knoll, L. J.,
Magis-Weinberg, L., Speekenbrink, M., & Blakemore, S.-J. (2015). Social
influence on risk perception during adolescence. Psychological Science, 26(5),
583–592. https://doi.org/10.1177/0956797615569578
20 Zaki, J., Schirmer, J.,
& Mitchell, J. P. (2011). Social influence modulates the neural computation
of value. Psychological Science, 22(7), 894–900. https://doi.org/10.1177/0956797611411057
21 van Duijvenvoorde, A. C.
K., Peters, S., Braams, B. R., & Crone, E. A. (2016). What motivates
adolescents? Neural responses to rewards and their influence on adolescents’
risk taking, learning, and cognitive control. Neuroscience & Biobehavioral
Reviews, 70, 135–147. https://doi.org/10.1016/j.neubiorev.2016.06.037
22 Bragazzi, N., Crapanzano,
A., Converti, M., Zerbetto, R., & Khamisy-Farah, R. (2023). The impact of
generative conversational artificial intelligence on the lesbian, gay,
bisexual, transgender, and queer community: Scoping review. Journal of Medical
Internet Research, 25, Article e52091. https://doi.org/10.2196/52091
23 Zimmerman, A., Janhonen,
J., & Beer, E. (2023). Human/AI relationships: Challenges, downsides, and
impacts on human/human relationships. AI and Ethics, 4, 1555–1567.https://doi.org/10.1007/s43681-023-00348-8
24 Bragazzi, N., Crapanzano,
A., Converti, M., Zerbetto, R., & Khamisy-Farah, R. (2023). The impact of
generative conversational artificial intelligence on the lesbian, gay,
bisexual, transgender, and queer community: Scoping review. Journal of Medical
Internet Research, 25, e52091. https://doi.org/10.2196/52091
25 van Der Hof, S., Lievens,
E., Milkaite, I., Verdoodt, V., Hannema, T., & Liefaard, T. (2020). The
child’s right to protection against economic exploitation in the digital world.
The International Journal of Children’s Rights, 28(4), 833–859.https://doi.org/10.1163/15718182-28040003
26 D’Mello, S. K., Biddy, Q.,
Breideband, T., Bush, J., Chang, M., Cortez, A., Flanigan, J., Foltz, P. W.,
Gorman, J. C., Hirshfield, L., Ko, M.-L. M., Krishnaswamy, N., Lieber, R.,
Martin, J., Palmer, M., Penuel, W. R., Philip, T., Puntambekar, S., Pustejovsky,
J., Reitman, J. G., Sumner, T., Tissenbaum, M., Walker, L., &Whitehill,
J.(2024). From learning optimization to learner flourishing: Reimagining AI in
education at the Institute for Student-AI Teaming (iSAT). AI Magazine, 45(1),
61–68. https://doi.org/10.1002/aaai.12158
27 D’Mello, S. K., Duran, N.,
Michaels, A., & Stewart, A. E. B. (2024). Improving collaborative
problem-solving skills via automated feedback and scaffolding: A
quasi-experimental study with CPSCoach 2.0. User Modeling and User-Adapted
Interaction, 34, 1087–1125. https://doi.org/10.1007/s11257-023-09387-6
28 Hsu, A., & Chaudhary,
D. (2023). AI4PCR: Artificial intelligence for practicing conflict resolution.
Computers in Human Behavior: Artificial Humans, 1(1), 100002. https://doi.org/10.1016/j.chbah.2023.100002
29 Gökçearslan, S., Tosun,
C., & Erdemir, Z. G. (2024). Benefits, challenges, and methods of
artificial intelligence (AI) chatbots in education: A systematic literature
review. International Journal of Technology in Education, 7(1), 19–39. https://doi.org/10.46328/ijte.600
30 Macnamara, B. N., Berber,
I., Çavuşoğlu, M. C., Krupinski, E. A., Nallapareddy, N., Nelson, N. E., Smith,
P. J., Wilson-Delfosse, A. L., & Ray, S. (2024). Does using artificial
intelligence assistance accelerate skill decay and hinder skill development
without performers’ awareness? Cognitive Research: Principles and Implications,
9, Article 46. https://doi.org/10.1186/s41235-024-00572-8
31 Freeman, S., Eddy, S. L.,
McDonough, M., Smith, M. K., Okoroafor, N., Jordt, H., & Wenderoth, M. P.
(2014). Active learning increases student performance in science, engineering,
and mathematics. Proceedings of the National Academy of Sciences, 111(23),
8410–8415.https://doi.org/10.1073/pnas.1319030111
32 Livingstone, S., &
Smith, P. (2014). Annual research review: Children and young people in the
digital age: The nature and prevalence of risks, harmful effects, and risk and
protective factors, for mobile and internet usage. Journal of Child Psychology
and Psychiatry, 55(6), 635–654. doi: 10.1111/ jcpp.12197
33 Holman, E. A., Garfin, D.
R., & Silver, R. C. (2013). Media’s role in broadcasting acute stress
following the Boston Marathon bombings. PNAS, 111(1), 93–98. https://doi. org/10.1073/pnas.1316265110
34 Tynes, B. M., Willis, H.
A., Stewart, A., & Hamilton, M. (2019). Race-related traumatic events
online and mental health among adolescents of color. Journal of Adolescent
Health, 65(3), 371–377. https://doi.org/10.1016/j.jadohealth.2019.03.006
35 Coyne. S. M. (2016).
Effects of viewing relational aggression on television on aggressive behavior
in adolescents: A three year longitudinal study. Developmental Psychology,
52(2), 284–295. https://doi.org/10.1037/dev0000068
36 Alfurayj, H. S., Hurtado,
B. F., Lutfi, S. L., & Rana, T. A. (2024). Exploring bystander contagion in
cyberbully detection: A systematic review. Journal of Ambient Intelligence
and Humanized Computing, 1–17. https://doi.org/10.1007/s12652-024-04831-w
37 Fazio, L. K., Rand, D. G.,
& Pennycook, G. (2019). Repetition increases perceived truth equally for
plausible and implausible statements. Psychonomic Bulletin & Review,
26, 1705–1710. https://doi.org/10.3758/s13423-019-01651-4
38 Unkelbach, C., Koch, A.,
Silva, R. R., & Garcia-Marques, T. (2019). Truth by repetition:
Explanations and implications. Current Directions in Psychological
Science, 28(3), 247–253. https://doi.org/10.1177/0963721419827854
39 Fazio, L. K. (2020).
Repetition increases perceived truth even for known falsehoods. Collabra:
Psychology, 6(1), 38. https://doi.org/10.1525/collabra.347
40 Ross, R. M., Rand, D. G.,
& Pennycook, G. (2021). Beyond “fake news”: Analytic thinking and the
detection of false and hyperpartisan news headlines. Judgment and Decision
Making, 16(2), 484–504. https://doi.org/10.1017/S1930297500008640
41 Herriman, Z., Tchen, H.,
& Cafferty, P. W. (2025). Could be better: Adolescent access to health
information and care. European Journal of Pediatrics, 184, Article
7. https://doi.org/10.1007/s00431-024-05868-x
42 Gray, N., Klein, J.,
Noyce, P., Sesselberg, T., & Cantrill, J. (2005). The internet: A window on
adolescent health literacy. Journal of Adolescent Health, 37(3),
243.e1-243.e7. https://doi. org/10.1016/J.JADOHEALTH.2004.08.023
43 Lee, E. E., Torous, J., De
Choudhury, M., Depp, C. A., Graham, S. A., Kim, H. C., Kim, Y., Paulus, M. P.,
Palsson, O., Thompson, W. K., & Jeste, D. V. (2021). Artificial
intelligence for mental health care: Clinical applications, barriers, facilitators,
and artificial wisdom. Biological Psychiatry: Cognitive Neuroscience and
Neuroimaging, 6(9), 856–864. https://doi.org/10.1016/j.bpsc.2021.02.001
44 Monteith, S., Glenn, T.,
Geddes, J. R., Whybrow, P. C., Achtyes, E., & Bauer, M. (2024). Artificial
intelligence and increasing misinformation. The British Journal of Psychiatry,
224(2), 33–35. https://doi:10.1192/bjp.2023.136
45 Martel, C., & Rand, D.
G. (2023). Misinformation warning labels are widely effective: A review of
warning effects and their moderating features. Current Opinion in
Psychology, 54, Article 101710. https://doi.org/10.1016/j.copsyc.2023.101710
46 Lee, P., Bubeck, S., &
Petro, J. (2023). Benefits, limits, and risks of GPT-4 as an AI chatbot for
medicine. New England Journal of Medicine, 388(13), 1233–1239. https://doi.org/10.1056/nejmsr2214184
47 Millenson, M. L., Baldwin,
J. L., Zipperer, L., & Singh, H. (2018). Beyond Dr. Google: The evidence on
consumer-facing digital tools for diagnosis. Diagnosis, 5(3),
95–105. https://doi.org/10.1515/dx-2018-0009
48 Fosch-Villaronga, E., Van
Der Hof, S., Lutz, C., & Tamò-Larrieux, A. (2023). Toy story or children’s
story? Putting children and their rights at the forefront of the artificial
intelligence revolution. AI & Society, 38, 133–152.https://doi.org/10.1007/s00146-021-01295-w
49 Blease, C. (2024). Open AI
meets open notes: Surveillance capitalism, patient privacy and online record
access. Journal of Medical Ethics: Journal of the Institute of Medical
Ethics, 50(2), 84–89.https://doi.org/10.1136/jme-2023-109574
50 Zhang, H., Nakamura, T.,
Isohara, T., & Sakurai, K. (2023). A review on machine unlearning. SN
Computer Science, 4, Article 337. https://doi.org/10.1007/s42979-023-01767-4
51 Harris, K. R. (2021).
Video on demand: What deepfakes do and how they harm. Synthese, 199,
13373–13391. https://doi.org/10.1007/s11229-021-03379-y
52 Thiel, D., Stroebel, M.,
& Portnoff, R. (2023). Generative ML and CSAM: Implications and
mitigations. Stanford Digital Repository. Available at
https://purl.stanford.edu/jv206yg3793. https://doi.org/10.25740/jv206yg3793
53 Christensen, L. S.,
Moritz, D., & Pearson, A. (2021). Psychological perspectives of virtual
child sexual abuse material. Sexuality & Culture, 25, 1353–1365. https://doi.org/10.1007/s12119-021-09820-1
54 OECD. (2021). Children in
the digital environment: Revised typology of risks. OECD Digital Economy
Papers, (302). https://www.oecd-ilibrary.org/science-and-technology/children-in-the-digital-environment_9b8f222e-en
55 Lobe, B., Velicu, A.,
Staksrud, E., Chaudron, S., & Di Gioia, R. (2021). How children
(10–18) experienced online risks during the Covid-19 lockdown—Spring 2020: Key
findings from surveying families in 11 European countries. Publications Office
of the European Union. https://doi.org/10.2760/562534
56 Lake, C., Snell, A.,
Gormley, C., Vinyard, I., Gillett, M., Soltis Anderson, K., O’Neil, E., Alles,
D., Collins Coleman, E., & Robb, M. (2025). The state of kids and
families in America 2025: Executive summary. Common Sense Media. Retrieved from https://www.commonsensemedia.org/sites/default/files/research/report/2025-common-sense-summit-report-web-2.pdf
57 Chiu, T. K. F., Ahmad, Z.,
Ismailov, M., & Sanusi, I. T. (2024). What are artificial intelligence
literacy and competency? A comprehensive framework to support
them. Computers and Education Open, 6, Article 100171. https://doi.org/10.1016/j.caeo.2024.100171
58 Kong, S. C., Korte, S. M.,
Burton, S., Keskitalo, P., Turunen, T., Smith, D., Wang, L., Lee, J. C-K.,
& Beaton, M. C. (2024). Artificial Intelligence (AI) literacy: An argument
for AI literacy in education. Innovations in Education and Teaching
International, 62(2), 477–483. https://doi.org/10.1080/14703297.2024.2332744
59 Tiernan, P., Costello, E.,
Donlon, E., Parysz, M., & Scriney, M. (2023). Information and media
literacy in the age of AI: Options for the future. Education Sciences,
13(9), 906. https://doi.org/10.3390/educsci13090906
60 Tynes, B., Stewart, A.,
Hamilton, M., & Willis, H. (2021). From Google searches to disinformation:
Adolescent critical race digital literacy needs and skills. International
Journal of Multicultural Education, 23(1), 110–130. https://doi.org/10.18251/ijme.v23i1.2463
61 Veldhuis, A., Lo, P. Y.,
Kenny, S., & Antle, A. N. (2025). Critical artificial intelligence
literacy: A scoping review and framework synthesis. International Journal
of Child-Computer Interaction, 43. https://doi.org/10.1016/j.ijcci.2024.100708
62 Schwartz, R., Vassilev,
A., Greene, K., Perine, L., Burt, A., & Hall, P. (2022). Towards a
standard for identifying and managing bias in artificial intelligence, NIST
Special Publication 1270. National Institute of Standards and Technology. https://doi.org/10.6028/NIST.SP.1270
63 Kordzadeh, N., &
Ghasemaghaei, M. (2021). Algorithmic bias: Review, synthesis, and future
research directions. European Journal of Information Systems, 31(3),
388–409. https://doi.org/10.1080/0960085X.2021.1927212
64 Akter, S., McCarthy, G.,
Sajib, S., Michael, K., Dwivedi, Y. K., D’Ambra, J., & Shen, K. N. (2021).
Algorithmic bias in data-driven innovation in the age of AI. International
Journal of Information Management, 60, Article 102387. https://par.nsf.gov/servlets/purl/10344127
65 Landers, R. N., &
Behrend, T. S. (2023). Auditing the AI auditors: A framework for evaluating
fairness and bias in high stakes AI predictive models. American
Psychologist, 78(1), 36–49. https://doi.org/10.1037/amp0000972
66 Allen, L. K., &
Kendeou, P. (2023). ED-AI Lit: An interdisciplinary framework for AI literacy
in education. Policy Insights from the Behavioral and Brain Sciences,
11(1), 3–10. https://doi.org/10.1177/23727322231220339
67 Southworth, J.,
Migliaccio, K., Glover, J., Glover, J., Reed, D., McCarty, C., Brendemuhl, J.,
& Thomas, A. (2023). Developing a model for AI across the curriculum:
Transforming the higher education landscape via innovation in AI
literacy. Computers and Education: Artificial Intelligence, 4, Article
100127. https://doi.org/10.1016/j.caeai.2023.100127
68 Yim, I. H. Y. (2024). A
critical review of teaching and learning artificial intelligence (AI) literacy:
Developing an intelligence-based AI literacy framework for primary school
education. Computers and Education: Artificial Intelligence, 7, Article
100319. https://doi.org/10.1016/j.caeai.2024.100319
69 Allen, L. K., &
Kendeou, P. (2023). ED-AI Lit: An interdisciplinary framework for AI literacy
in education. Policy Insights from the Behavioral and Brain Sciences,
11(1), 3–10. https://doi.org/10.1177/23727322231220339











نظرات
ارسال یک نظر