اظهار نظر 0

روزنامه به دیدگاه شما نیازمند است،از نظراتتون روی موضوعات پیشوازی خواهیم کرد.

  • برگزیده خوانندگان
  • همه
مرتب کردن بر اساس : قدیمی تر

چالش آگاهي در عصر هوش مصنوعي

آگاهي راستين، مفهومي عميق و چندوجهي است که از ديرباز مورد بحث فلاسفه، دانشمندان و انديشمندان بوده است. آگاهي راستين به‌عنوان شناخت و درک عميق و دقيق انسان از خود، جهان و موقعيت او در اجتماع تعريف مي‌شود.

چالش آگاهي در عصر هوش مصنوعي

آگاهي راستين زماني در افراد شکل ميگيرد که چند ويژگي در ساحت شناخت و معرفت او برجسته باشد؛ نخست «خودآگاهي» است يعني شناخت دقيق نقاط قوت، نقاط ضعف، ارزشها، باورها و انگيزههاي خود؛ دوم «آگاهي از محيط» است يعني درک عميق از دنياي پيرامون، اعم از مسائل اجتماعي، سياسي، اقتصادي و فرهنگي؛ سوم مهارت «تفکر انتقادي» است يعني توانايي تحليل و بررسي اطلاعات بهطور عميق و بدون تعصب؛ چهارم «خلاقيت» است يعني توانايي ارائه ايدهها و راهحلهاي جديد براي مسائل جديد در يک محيط متغير و نهايتا «مسئوليتپذيري» است که به پذيرش مسئوليت اعمال و رفتار خود و تعهد به بهبود آنها مربوط ميشود.

ارزشآفريني مولفههاي فوق در توسعه فردي، اجتماعي و اقتصادي فرد و جامعه اهميت دارد زيرا آگاهي راستين به فرد کمک ميکند با درک عميق از خود و محيط پيرامون، تصميمات آگاهانهتر و بهتري در زندگي بگيرد. همچنين فرد با شناخت خود و ديگران، ميتواند روابط قويتر و عميقتري برقرار کند. با تفکر انتقادي و خلاقيت، ميتواند راهحلهاي جديد و کارآمدي براي مسائل مختلف پيدا کرده و ضمن رشد و توسعه فردي به ايجاد تغييرات مثبت در جامعه کمک کند زيرا توسعه اجتماعي در ابتدا نيازمند درک عميق از مسائل اجتماعي، سياسي و اقتصادي است.

آگاهي راستين بهطور ويژه نيز براي دموکراسي و عدالت اجتماعي ضروري است، چون به افراد اجازه ميدهد در مورد مسائل اجتماعي و سياسي بهطور انتقادي فکر کنند، در تصميمگيريهاي آگاهانه مشارکت کرده و براي تغيير اجتماعي تلاش کنند.

ايجاد و توسعه آگاهي راستين سفري مداوم و بدون پايان است که از راه مطالعه و تفکر، تأمل و مراقبه، اختصاص زمان براي تفکر عميق و بدون تعصب از دنياي پيرامون، مراقبت از خود، ارتباط و معاشرت با افراد آگاه و نيز خارج شدن از «منطقه امن خود» و کسب تجربههاي جديد ميگذرد اما اين سفر موانع و مشکلات متعددي بر سر راه خود دارد که امر آگاهي راستين را به آگاهي کاذب و نادرست جهت ميدهد که در آن افراد درک نادرستي از خود و واقعيتهاي اجتماعي پيدا ميکنند. بهطور تاريخي اين موانع عبارتاند از:

1- قدرت: در نظامهاي اقتدارگرا، صاحبان اقتدار و زور اعم از حاکمان، ديکتاتورها، احزاب سياسي و نهادهاي فرهنگي همواره از ابزارهاي مختلفي براي کنترل اطلاعات و شکلدهي به افکار عمومي استفاده ميکردند. اين ابزارها شامل سانسور، پروپاگاندا، آموزش ايدئولوژي و سرکوب مخالفان بوده است. قدرت در ترکيب با ثروت ميتواند از طريق رسانهها، موسسات آموزشي و ساير منابع، روايتهاي غالب را شکل داده و آگاهي عمومي را تحت تاثير خود قرار دهند. گاهي اين قدرت ميتواند بازيگران بدخيم خارجي باشند دولتها و شرکتهايي که بهدليل خصومت سياسي و راهبردي از ابزار جنگ نرم براي آسيب به افکار عمومي جامعه هدف بهره ميبرند.

2- جهل: در جوامعي که سطح سواد و آگاهي عمومي پايين بود، مردم بيشتر در معرض شايعات، خرافات و اطلاعات نادرست بودهاند و عموما تابع احساسات و هيجانات آني و نسنجيده ميشوند.

3- تعصب: تعصبات قومي، مذهبي، جنسيتي و طبقاتي ميتوانستند در نحوه تفسير و پردازش اطلاعات توسط افراد نقش داشته و يک مانع جدي در پذيرش حقايقي است که با آن در تقابل است.

4- ويژگيهاي روانشناختي و ساختاري ذهن: «سوگيري تأييد» ازجمله ويژگيهاي ذهن بشر است که آن دسته از حقايق زندگي را ميپذيرد که با باورها و نظام هنجاري و روانشناختي او مطابقت دارد. ذهن مايل است اطلاعات جديد دريافتي اطلاعات پيشين او را تاييد کند.

5- فناوري: پيشرفتهاي فناورانه بهويژه در حوزه اطلاعات و ارتباطات مانند چاپ و راديو، امکان انتشار اطلاعات را بهطور گستردهتر فراهم کرد، اما درعينحال به قدرتمندان و ثروتمندان و ساير ذينفعان بدخيم (قدرتهاي خارجي) ابزارهاي جديدي براي کنترل و دستکاري اطلاعات داد. در اينجا سوال اين است که هوش مصنوعي بهعنوان فناوري نوظهور اطلاعاتي، چگونه بر آگاهي راستين اثر ميگذارد و آيا ميتوان تاثيرات آن را مديريت کرد؟

 

تاثيرات منفي AI بر آگاهي راستين

 

بررسي اجمالي نشان ميدهد هوش مصنوعي به طرق زير ميتواند بر آگاهي راستين اثر بگذارد:

- افزايش وابستگي شناختي به هوش مصنوعي: با توسعه هوش مصنوعي و فراگير شدن استفاده از الگوريتمهاي هوشمند در آموزش و شبکههاي اجتماعي و ارتباطي بسياري از کارکردهاي شناختي انسان، از تصميمگيري تا خلاقيت، درحال وابسته شدن به هوش مصنوعي است. اين تغييرات شامل نحوه درک و تجربه جهان نيز ميشود زيرا هوش مصنوعي ميتواند به انسان در ديدن و شنيدن چيزهايي که در دسترس نيستند و يا با حواس پنجگانه قابل تجربه شدن نيستند کمک کند.

AI با انجام امور پيچيده، زمانبر و خستهکننده ميتواند به کمک هوش انساني آمده تا خلاقيت و نوآوري را افزايش دهد؛ اما اين امر ذهن افراد را در استفاده از کارکردهاي پيشين هوش انساني چون استفاده از حافظه، حل مسائل پيچيده، استدلال و تعمق و استفاده از دانش پيشين تنبل و کند کرده و بهتدريج وابستگي غيرقابلجبران به هوش مصنوعي همهگير خواهد شد.

- افزايش سرعت توليد و نشر آگاهي نادرست: هوش مصنوعي ميتواند براي انتشار اطلاعات نادرست، جعلي و نفرتافکن بهصورت تبليغات و شايعات استفاده شود. اين امر ميتواند بهويژه در رسانههاي اجتماعي، جايي که افراد بهطور فزايندهاي براي دريافت اخبار و اطلاعات خود به آن اتکا ميکنند، مشکلساز شود براي نمونه در سال 2016 رباتهاي توييتر بهطور گسترده براي انتشار اطلاعات نادرست و ايجاد شايعه در انتخابات رياست جمهوري آمريکا استفاده شدند.

- دستکاري افکار عمومي با اهداف سياسي: هوش مصنوعي ميتواند براي شکلدهي به افکار عمومي از طريق رديابي رفتار آنلاين افراد و پيشبيني افکار و احساسات آنها مورد استفاده قرار گيرد. اين امر ميتواند به دستکاري انتخابات، ترويج خشونت و نفرتپراکني و تضعيف اعتماد به نهادهاي دموکراتيک منجر شود. در سال 2018، کمپاني Cambridge Analytica از دادههاي فيسبوک براي هدف قرار دادن رأيدهندگان با تبليغات سياسي شخصيسازيشده استفاده کرد.

- تضعيف عقلانيت و تقويت تعصب افراطي: اساسا حفظ آگاهي راستين از انحراف و دستکاري در حوزه دموکراسي اهميت ويژه دارد. هوش مصنوعي با افزايش سرعت انتشار اطلاعات نادرست و رساندن هدفمند آن به پروفايلهاي خرد به روند انتخابات سنجيده و خردمند صدمه ميزند زيرا اصل اين است که شهروندان با مواجهه با حداکثر ايدهها و عقايد سياسي دست به انتخاب سنجيده و آزاد بزنند، درحاليکه عامليت انساني در بستر شبکههاي اجتماعي در معرض اطلاعات نفرتافکن، کاذب و نادرست قرار ميگيرد و تحت تاثير فضاي نفرت يا طرفداري افراطي از انتخاب شايسته دور نگهداشته ميشود.

الگوريتمهاي هوش مصنوعي از طريق اتاقکهاي پژواک، رباتهاي اجتماعي و ديپ فيک ميتواند بهجاي تقويت تفکر و تعقل عميق، هيجانات و احساسات منفي و افراطي را در ميان شهروندان عليه يا له نظام سياسي، نامزدهاي انتخاباتي و فعالان اجتماعي تهييج کند که گاهي خشونت همراه آن به فضاي آفلاين هم سرريز ميشود. گاهي نيز افراد براي دور ماندن از فشارها و ترسهاي ناشي از طوفان هشتکها و منشهاي رباتهاي فعال در شبکههاي اجتماعي، انزواي سياسي و اجتماعي را انتخاب ميکند.

- ايجاد اجماع جعلي: هوش مصنوعي ميتواند از طريق رباتهاي اجتماعي و توليد هويتهاي جعلي و مصنوعي، ايجاد کمپينهاي دروغين، جعل عميق و ساير اشکال فريب استفاده شود. اين امر ميتواند به آسيب رساندن به شهرت افراد و ايجاد محبوبيت کاذب براي افراد غير مستحق و موضوعات نادرست و جعلي در حوزه سلامت عمومي، باورهاي ملي و... کمک کند.

- محدود کردن دسترسي به اطلاعات: هوش مصنوعي از طريق الگوريتمهاي طبقهبندي مخاطبان که به حبابهاي فيلتر معروف است افراد را در معرض اطلاعات محدود و موافق با ديدگاههاي خودشان قرار ميدهد و آنان را در غارهاي اطلاعاتي محدود حبس ميکند بدون آنکه در معرض اطلاعات متفاوت ديگر قرار گيرند.

- کاهش مهارتهاي تفکر انتقادي: اعتياد به استفاده از تحليلها و توصيههاي هوش مصنوعي علاوه بر اينکه قابليتهاي استدلالي و تحليلي ذهن را تضعيف ميکند، ميتواند مهارتهاي تفکر انتقادي را کاهش دهد و آگاهي افراد در معرض اطلاعات نادرست و تبليغاتي بيشتر آسيب ببيند. فرد به مرور زمان با دريافت خدمات رايگان از شبکههاي مجازي به اطلاعات اين فضا اعتماد پيدا ميکند و کمتر مايل است صحت درستي و نادرستي انبوه اطلاعات دريافتي در روز را بررسي کند.

- فقدان شفافيت در تحليل اطلاعات: بسياري از الگوريتمهاي هوش مصنوعي مانند جعبه سياه عمل ميکنند، به اين معني که درک نحوه عملکرد تحليل و استنباطي آنها دشوار است. اين امر ميتواند همراه با نتايج و کارکردهاي از هوش مصنوعي شود که بخشي از آگاهي جامعه را دستکاري و جهتدهي کند؛ مانند الگوريتمهاي فيلتر حباب که افراد را در غارهاي اطلاعاتي مشابه و همگن حبس کرده بخشي از اطلاعات از منظر افراد دور ميشود.

- سوگيري الگوريتمي: الگوريتمهاي هوش مصنوعي ميتوانند سوگيريهاي موجود در دادههايي که آموزش ديدهاند را منعکس و تقويت کنند. دادههايي که براي آموزش الگوريتمها استفاده ميشوند، غالبا سوگيريهاي ذاتي توسعهدهندگان و طراحان را منعکس ميکنند. سوگيرياي که ناشي از نوع جهانبيني، آگاهي طبقاتي، جنسيتي و سياسي و قومي آنهاست.

اين سوگيريها ميتوانند از طريق انتخاب منابع داده، نحوه جمعآوري دادهها و نحوه برچسبگذاري دادهها وارد شوند. به عنوان مثال اگر الگوريتمي براي تشخيص چهره با استفاده از دادههايي آموزش داده شود که عمدتا از افراد سفيدپوست تشکيلشده باشد، احتمالا در تشخيص چهره افراد با رنگينپوستان کمتر دقيق خواهد بود.

- ايجاد کليشههاي کاذب هويتي و جنسيتي: هوش مصنوعي بر آگاهي زنان و جوانان که مصرفکنندگان اصلي شبکههاي اجتماعي هستند تاثير بيشتري دارد. براي نمونه AI از طريق باتهاي اجتماعي و فناوري ديپفيک براي ايجاد و انتشار ويدئوهاي جعلي و تصاوير فتوشاپي استفاده ميشود تا عليه زنان فعال اجتماعي شايعه و تصويرسازي منفي کند. همچنين هوش مصنوعي ميتواند کليشههاي جنسيتي را در تبليغات و محتواي آنلاين تقويت کند. فشار براي تناسباندام ايدهآلهاي زيبايي غير قابل دسترس را در زنان افزايش دهد.

مهمترين تأثير هوش مصنوعي بر جوانان شکلگيري هويت شناختي نوجوانان و جوانان مبتني بر انبوه اطلاعات نادرست و مغرضانهاي است که آنان را از مزاياي راستين در زندگي فردي و اجتماعي دور ميکند، کاهش مهارت تفکر انتقادي در جوانان از نتايج قرار گرفتن طولانيمدت در معرض اطلاعات نادرستي است که از طريق انواع هوش مصنوعي در فضاي مجازي توليد و انتشار مييابد.

 

مزاياي AI در تقويت آگاهي راستين

 

تاثيرات مخرب هوش مصنوعي بر آگاهي راستين و توليد آگاهي کاذب همه قصه اين فناوري نيست و مشارکت آن باهوش انساني مزاياي پرشماري براي آگاهي راستين در بر دارد. ازجمله:

- افزايش پتانسيل خلاقيت و نوآوري بشر: هوش مصنوعي ميتواند به انسانها در انجام کارهايي که قبلا غيرممکن بود کمک کند و به آنها امکان ميدهد به ايدهها و نظرياتي جديد در حوزه علم و هنر دست پيدا کنند که در سابق نيازمند صرف زمان و هزينه بسيار بود.

- افزايش دسترسي به اطلاعات: هوش مصنوعي دسترسي به اطلاعات و دادههاي پنهان و غيرقابل مشاهده را افزايش ميدهد و به افراد امکان ميدهد در مورد موضوعات مختلف آگاهي متنوعي کسب کنند.

- تحليل اطلاعات کلان: هوش مصنوعي ميتواند به تحليل و تفسير حجم عظيمي از دادهها کمک کند و با دقت بالا و زمان کم، روندهاي مورد نظر را پيشبيني کند (بهويژه در حوزه سلامت، محيطزيست و اقتصاد) امري که از توان ذهن انسان خارج است و در حل مسائل پيچيده و شرايط متغير و بحراني بسيار کاربردي است.

- افزايش سرعت کسب آگاهي: به نسبت گذشته و رويکردهاي سنتي در دريافت اطلاعات همچون کتاب، راديو و تلويزيون، از طريق هوش مصنوعي ميتوان در يک زمان کوتاه اطلاعات دستهبندي و دقيقتري را در اختيار گرفت بدون آنکه فرد زمان زيادي را بين اسناد و کسب شواهد و قراين پرشمار صرف کند.

- يادگيري شخصي: هوش مصنوعي ميتواند تجربيات يادگيري را شخصيسازي کند و به افراد در يادگيري موثرتر با توجه به پروفايل روانشناختي فرد و شرايط يادگيري او کمک کند.

- افزايش آگاهي از سوگيري: هوش مصنوعي ميتواند به ما در آگاهي از سوگيريهاي خود و ديگران کمک کند البته چنانچه نسبت به آن آموزش لازم را ديده باشد و الگوريتمهاي شناسايي اطلاعات جعلي توسعه بيشتري يابد.

 

راهکارها و درسهاي سياستي

 

سوال نهايي آن است که با توجه به مزايا و تاثيرات منفي هوش مصنوعي بر آگاهي راستين مهمترين راهحلها کدام است؟ صاحبنظران به گزينههاي فني و آموزشي زير بيشترين تاکيد را دارند.

- آموزش و تقويت مهارت تفکر انتقادي: مراجع آموزشي و تربيتي ميتوانند به افراد کمک کنند تا از طريق تفکر انتقادي، ابعاد مختلف آگاهي راستين خود را حفظ کنند و در زندگي فردي و اجتماعي تصميمات آگاهانه، ارادي و سنجيده بگيرند.

- آموزش سواد ديجيتال: آموزش افراد براي اينکه بتوانند اطلاعات نادرست و تبليغات را از منابع معتبر و غير معتبر شناسايي و رد کنند. اين موضوع بايد با آموزش قابليتهاي مثبت و منفي هوش مصنوعي و کاربردهاي هنجارمند آن نيز همراه شود.

- تقويت مسئوليتپذيري: افراد بايد در قبال اطلاعاتي که به اشتراک ميگذارند مسئوليتپذير باشند و منابع اطلاعات خود را بررسي کنند.

- توسعه هوش مصنوعي قابلاعتماد و مسئوليتپذير: دور شدن از معايب هوش مصنوعي در حوزه آگاهي، نيازمند توسعه نوعي از فناوري است که سوگيري شناختي در آن به حداقل رسيده باشد و نيز مستلزم ترويج استفاده مسئولانه از هوش مصنوعي است بهنحويکه کاربران و توسعه دهندگان هوش مصنوعي تضمين بدهند که از آن براي دستکاري آگاهي استفاده نکنند.

- افزايش شفافيت و تنوع در تيمهاي توسعه هوش مصنوعي: تنوع در پيشينهها، تجربيات و ديدگاهها ميتواند به شناسايي و کاهش سوگيري شناختي در الگوريتمها کمک کند. همچنين شفافسازي نحوه عملکرد الگوريتمها و دادههايي که براي آموزش آنها استفاده ميشوند، ميتواند به شناسايي و رفع سوگيريها کمک کند.

براي مديريت تاثيرات مخرب هوش مصنوعي بايد به اين نکته مهم توجه داشت که اين فناوري در مقايسه با عوامل اثرگذار تاريخي، همچون دولتهاي پوپوليست، ايدئولوژي و رسانههاي سنتي؛ قدرت نفوذ و اثر بيشتري بر آگاهي راستين دارد. در اين راستا پنهان و نامحسوس بودن تأثير هوش مصنوعي ويژگياي برجسته است.

الگوريتمهاي هوش مصنوعي ميتوانند بسيار پيچيده و غيرقابل فهم عمل کنند لذا رديابي و شناسايي نحوه دستکاري اطلاعات و آگاهي توسط آنها دشوار است. سرعت و دقت عمل هوش مصنوعي نيز بسيار بيشتر هوش مصنوعي ميتواند اطلاعات را با سرعت و بهطور دقيق به افراد مختلف هدفگذاري شده ارائه دهد.

 

نتيجهگيري

امروزه هوش مصنوعي ابزاري قدرتمند است که ميتواند براي دستکاري انواع آگاهي فردي و اجتماعي استفاده شود. درعينحال بايد پذيرفت در عصر حاضر، آگاهي راستين ترکيبي از عامليت انساني و عامليت ماشين شده است که بايد از ترکيب اخلاقي و مسئوليتپذير آن صيانت کرد البته اين صيانت نهتنها مستلزم توسعه هوش مصنوعي مسئوليتپذير و اخلاقي بوده که نيازمند عامليت انساني است که بهصورت مادامالعمر در معرض يادگيري باشد و همگام با تحولات فناورانه در حوزه ارتباطات و اطلاعات مهارتهاي استدلالي لازم را دريافت کند.

بر اساس نظريه سايبرنتيک با توسعه روزافزون فناوريهاي هوشمند، انسان ناچار است شکل تعامل خود با ماشينهاي هوشمند را بازبيني کرده به نحوي که با جسم، روح و آگاهي او يک جهان يکپارچه و هماهنگ را ايجاد کند.

منابع مورد استفاده:

Manzotti, R. (2007). From artificial intelligence to artificial consciousness. Artificial consciousness, 174-190.‏

Meissner, G. (2020). Artificial intelligence: consciousness and conscience. AI & SOCIETY, 35, 225-235.‏

Ali Elfa, M. A., & Dawood, M. E. T. (2023). Using Artificial Intelligence for enhancing Human Creativity. Journal of Art, Design and Music, 2(2), 3.‏

Mazzone, M., & Elgammal, A. (2019, February). Art, creativity, and the potential of artificial intelligence. In Arts (Vol. 8, No. 1, p. 26). MDPI.‏

Marien, M. (2014). The second machine age: Work, progress, and prosperity in a time of brilliant technologies. Cadmus, 2(2), 174.‏

Gruner, D. T.,& Csikszentmihalyi, M. (2019). Engineering creativity in an age of artificial intelligence. The Palgrave Handbook of Social Creativity Research, 447-462.‏

ong, Y., Hou, J., Zhang, N., & Zhang, M. (2020). Research on how human intelligence, consciousness, and cognitive computing affect the development of artificial intelligence. Complexity, 2020, 1-10.‏

European Parliamentary, (2019) Regulating disinformation with artificial intelligence, European Parliamentary Research Service Scientific (EPRS) Foresight Unit, PE 624.279

Allcott, H., & Gentzkow, M. (2017). Social media and fake news in the 2016 election. Journal of Economic Perspectives, 31(2), 211-236.

نويسنده:راضيه مهرابيکوشکي، عضو هياتعلمي پژوهشکده مطالعات فناوري

اطلاعاتی برای نمایش وجود ندارد.