ﺑﻌﺪ ﻋﻤﻠﻴﺔ ﻧﻴﻮزﻳﻠﻨﺪا اﻹرﻫﺎﺑﻴﺔ... ﻫﻞ ﺗﻔﺮض اﻟﺮﻗﺎﺑﺔ ﻋﻠﻰ وﺳﺎﺋﻞ اﻟﺘﻮاﺻﻞ اﻻﺟﺘﻤﺎﻋﻲ؟
ﻃﺮح اﻟﻘﻀﻴﺔ ﻋﻠﻰ ﻃﺎوﻟﺔ ﻣﺠﻤﻮﻋﺔ اﻟﻌﺸﺮﻳﻦ ﰲ اﻟﻴﺎﺑﺎن ﻫﺬا اﻟﺼﻴﻒ
ﻳـﻤـﺜـﻞ اﻟــﺤــﺎدث اﻹرﻫـــﺎﺑـــﻲ اﻟــﺬي وﻗـــﻊ ﻓــﻲ ﻣـﺪﻳـﻨـﺔ ﻛــﺮاﻳــﺴــﺖ ﺗﺸﻴﺮش ﻓﻲ ﻧﻴﻮزﻳﻠﻨﺪا ﻳﻮم اﻟﺠﻤﻌﺔ ٥١ ﻣﺎرس )آذار( ٩١٠٢، اﻟـــــﺬي راح ﺿﺤﻴﺘﻪ ٠٥ ﻣـــﻦ اﳌــﺼــﻠــﲔ اﳌــﺴــﻠــﻤــﲔ، ﻧـﻘـﻄـﺔ ﻓـﺎرﻗـﺔ ﻓـﻲ ﻧـﺸـﺎط وﺳـﺎﺋـﻞ اﻟﺘﻮاﺻﻞ اﻻﺟـﺘـﻤـﺎﻋـﻲ، ﻗـﺪ ﻳﺴﻔﺮ ﻋﻨﻬﺎ وﺿﻊ ﻣﻌﺎﻳﻴﺮ ﺟﺪﻳﺪة ﻟﻨﺸﺎط ﻫﺬه اﻟﻮﺳﺎﺋﻞ وﻛـــﻴـــﻔـــﻴـــﺔ اﻧـــﻀـــﺒـــﺎﻃـــﻬـــﺎ ﻣــﺴــﺘــﻘــﺒــﻼ. وﻛـــﺎﻧـــﺖ اﻟـــﺒـــﺪاﻳـــﺔ ﻓـــﻲ ﻫــــﺬا اﻟــﺘــﺤــﻮل ﻃﻠﺐ أﺳـﺘـﺮاﻟـﻴـﺎ رﺳﻤﻴﴼ ﻣـﻦ اﻟﻴﺎﺑﺎن ﻃﺮح ﻣﻮﺿﻮع ﺗﺸﺪﻳﺪ اﻟﺮﻗﺎﺑﺔ ﻋﻠﻰ وﺳﺎﺋﻞ اﻟﺘﻮاﺻﻞ اﻻﺟﺘﻤﺎﻋﻲ ﻓﻲ ﻗﻤﺔ اﻟﻌﺸﺮﻳﻦ اﻟﺘﻲ ﺳﺘﻌﻘﺪ ﻓﻲ أوﺳﺎﻛﺎ ﺧﻼل ﺷﻬﺮ ﻳﻮﻧﻴﻮ )ﺣﺰﻳﺮان( اﳌﻘﺒﻞ.
وذﻛﺮ رﺋﻴﺲ اﻟـﻮزراء اﻷﺳﺘﺮاﻟﻲ ﺳﻜﻮت ﻣﻮرﻳﺴﻮن ﻋﻠﻰ ﺣﺴﺎﺑﻪ ﻓﻲ »ﺗــﻮﻳــﺘــﺮ« أﻧــــﻪ أرﺳــــﻞ رﺳــﺎﻟــﺔ ﻳﻄﻠﺐ ﻓـﻴـﻬـﺎ ﻣــﻦ رﺋــﻴــﺲ اﻟـــــﻮزراء اﻟـﻴـﺎﺑـﺎﻧـﻲ ﺷـــﻴـــﻨـــﺰو آﺑـــــﻲ ﻋـــﻘـــﺐ ﺣــــــﺎدث إﻃــــﻼق اﻟﻨﺎر ﻋﻠﻰ اﳌﺼﻠﲔ داﺧﻞ ﻣﺴﺠﺪﻳﻦ ﻓـﻲ ﻧﻴﻮزﻳﻠﻨﺪا، ﻃــﺮح اﻟﻘﻀﻴﺔ ﻋﻠﻰ زﻋــــﻤــــﺎء ﻣــﺠــﻤــﻮﻋــﺔ اﻟــﻌــﺸــﺮﻳـــﻦ ﻟــﺪى اﺟﺘﻤﺎﻋﻬﻢ ﻓﻲ اﻟﻴﺎﺑﺎن ﻫﺬا اﻟﺼﻴﻒ. وﻛﺎن اﻟﺤﺪث اﻷﻟﻴﻢ ﻗﺪ ﺑﺚ ﺣﻴﴼ ﻋﻠﻰ »ﻓﻴﺴﺒﻮك« ﻣﻦ اﻹرﻫﺎﺑﻲ، وﺑﻘﻲ ﻋﻠﻰ اﳌﻮﻗﻊ ﺑﻌﺾ اﻟﻮﻗﺖ إﻟـﻰ أن ﺣﺬﻓﺘﻪ إدارة اﳌﻮﻗﻊ ﺧـﻼل ٤٢ ﺳﺎﻋﺔ، وﻟﻜﻦ ﻟـﻴـﺲ ﻗـﺒـﻞ اﻧــﺘــﺸــﺎر ﻣـﻠـﻴـﻮن وﻧﺼﻒ اﳌﻠﻴﻮن ﻧﺴﺨﺔ ﻣﻨﻪ.
وذﻛـــﺮ ﻣــﻮرﻳــﺴــﻮن ﻓــﻲ رﺳـﺎﻟـﺘـﻪ، اﻟــﺤــﺎﺟــﺔ اﳌــﻠــﺤــﺔ ﻷن ﺗــﻘــﻮم ﺷــﺮﻛــﺎت اﻟـﺘـﻜـﻨـﻮﻟـﻮﺟـﻴـﺎ ﺑـﻮاﺟـﺒـﻬـﺎ اﻷﺧــﻼﻗــﻲ ﻟﺤﻤﺎﻳﺔ اﳌﺠﺘﻤﻌﺎت اﻟﺘﻲ ﺗﺨﺪﻣﻬﺎ، واﻟﺘﻲ ﺗﺤﺼﻞ ﻣﻨﻬﺎ ﻋﻠﻰ أرﺑﺎﺣﻬﺎ. وأﺿـــــــﺎف: »ﻋــﻠــﻰ زﻋـــﻤـــﺎء ﻣـﺠـﻤـﻮﻋـﺔ اﻟــﻌــﺸــﺮﻳــﻦ ﺗــﺄﻛــﻴــﺪ أن ﻫــﻨــﺎك ﻋــﻮاﻗــﺐ ﻟــﻴــﺲ ﻓــﻘــﻂ ﳌــﻨــﻔــﺬي ﻫـــﺬه اﻟﻌﻤﻠﻴﺎت اﻟﺸﻨﻴﻌﺔ وإﻧـﻤـﺎ أﻳﻀﺎ ﳌﻦ ﻳﻨﺸﺮون ﻟﻬﻢ ﻫﺬه اﻷﻋﻤﺎل«.
وﻳﻌﺘﺒﺮ اﻟﺒﻌﺾ أن ﺑـﻘـﺎء ﻣــﻮاد ﺗﺤﺾ ﻋﻠﻰ اﻟﻜﺮاﻫﻴﺔ ﳌﺪة ٤٢ ﺳﺎﻋﺔ ﻋﻠﻰ ﻣﻮﻗﻊ »ﻓﻴﺴﺒﻮك« ﻗﺒﻞ ﺣﺬﻓﻬﺎ، ﻳـــﻌـــﻨـــﻲ ﺗـــﻐـــﺎﻓـــﻞ إدارة اﳌـــــﻮﻗـــــﻊ ﻋــﻦ ﻣﺴﺆوﻟﻴﺎﺗﻬﺎ. وﻫﻨﺎك ﺳﻮاﺑﻖ ﻛﺜﻴﺮة ﳌﺜﻞ ﻫــﺬا اﻻﺳـﺘـﺨـﻔـﺎف، وﻻ ﻳﻘﺘﺼﺮ اﻷﻣﺮ ﻋﻠﻰ »ﻓﻴﺴﺒﻮك« وإﻧﻤﺎ ﻳﻨﺘﺸﺮ ﻋــﻠــﻰ ﻣــﻮاﻗــﻊ أﺧــــﺮى ﻣــﺜــﻞ: »ﺗــﻮﻳــﺘــﺮ« و»اﻧﺴﺘﻐﺮام« و»ﻳﻮﺗﻴﻮب« وﻏﻴﺮﻫﺎ.
ﻓــﻲ اﳌــﺎﺿــﻲ، ﻗـﺎﻟـﺖ إدارات ﻫـﺬه اﳌــﻮاﻗــﻊ إﻧــﻬــﺎ ﺗـﺴـﺘـﻤـﻊ إﻟـــﻰ ﺷـﻜـﺎوى اﳌـﺴـﺘـﺨـﺪﻣـﲔ وﺗــﺤــﺬف أي ﻣـــﻮاد أو ﺻﻮر ﻣﺴﻴﺌﺔ أو ﺗﺪﺧﻞ ﺗﺤﺖ ﻧﻄﺎق ﺑﺚ اﻟﻜﺮاﻫﻴﺔ اﻟﻌﻨﺼﺮﻳﺔ أو اﻟﺪﻳﻨﻴﺔ، وﻟـﻜـﻦ اﳌــﻮاﻗــﻊ ﻻ ﺗـﻘـﻮم ﺑـﻬـﺬه اﳌﻬﻤﺔ ﺗﻠﻘﺎﺋﻴﴼ أو ﻓﻮرﴽ.
وﻓــــــﻲ ﺣــــــﺎل ﺣــــــــﺎدث »ﻛـــﺮاﻳـــﺴـــﺖ ﺗﺸﻴﺮش« اﻹرﻫﺎﺑﻲ ﺗﻮﺟﻬﺖ ﺷﺮﻃﺔ ﻧــﻴــﻮزﻳــﻠــﻨــﺪا وﺣــﻜــﻮﻣــﺘــﻬــﺎ ﺑـﻄـﻠـﺒـﺎت ﻋﺎﺟﻠﺔ إﻟﻰ »ﻓﻴﺴﺒﻮك« ﻟﻜﻲ ﻳﺤﺬف اﳌﺤﺘﻮى، وﻟﻜﻦ »ﻓﻴﺴﺒﻮك« اﺳﺘﻐﺮق ﺳـــﺎﻋـــﺎت ﺣــﺘــﻰ ﻳــﺴــﺘــﺠــﻴــﺐ، إﻟــــﻰ أن اﻧــﺘــﺸــﺮ ﺧــﻼﻟــﻬــﺎ اﳌــﺤــﺘــﻮى إﻟــــﻰ ٥٫١ ﻣﻠﻴﻮن ﻧﺴﺨﺔ ﺗﻌﲔ إزاﻟﺘﻬﺎ. وﻛﺎﻧﺖ اﻟﻨﺘﻴﺠﺔ ﻣــﻮﺟــﺔ ﻣــﻦ اﻟـﻐـﻀـﺐ اﻟـﻌـﺎم اﻟـــــﺬي دﻓــــﻊ ﺷــﺨــﺼــﻴــﺎت ﻋـــﺎﻣـــﺔ ﻣﺜﻞ ﻋﻤﺪة ﻟﻨﺪن ﺳﺎﺟﺪ ﺟﺎﻓﻴﺪ ﻟﺘﻮﺟﻴﻪ ﻧﺪاء إﻟﻰ ﻛﻞ ﻣﻦ »ﻳﻮﺗﻴﻮب« و»ﻏﻮﻏﻞ« و»ﻓـــﻴـــﺴـــﺒـــﻮك« و»ﺗــــﻮﻳــــﺘــــﺮ« ﻟـﺘـﺤـﻤـﻞ ﻣــﺴــﺆوﻟــﻴــﺎﺗــﻬــﺎ ﻋــﻦ اﳌـــــﻮاد اﳌـﺘـﻄـﺮﻓـﺔ اﻟﺘﻲ ﺗﻨﺸﺮ ﻋﺒﺮ ﻣﻮاﻗﻌﻬﺎ، ﻣﺨﺘﺘﻤﴼ رﺳﺎﻟﺘﻪ ﻋﻠﻰ »ﺗﻮﻳﺘﺮ« ﺑﻜﺘﺎﺑﺔ ﻋﺒﺎرة: »ﻟﻘﺪ ﻓﺎض اﻟﻜﻴﻞ«. ﻣﻦ ﻧﺎﺣﻴﺔ أﺧﺮى، أﻋﻠﻦ ﻣﺌﺎت ﻣﻦ اﳌﺴﺘﺨﺪﻣﲔ ﻣﻘﺎﻃﻌﺔ وﺳـــــﺎﺋـــــﻞ اﻟـــــﺘـــــﻮاﺻـــــﻞ اﻻﺟـــﺘـــﻤـــﺎﻋـــﻲ اﺣﺘﺠﺎﺟﴼ ﻋﻠﻰ اﻧﻌﺪام اﻟﺮﻗﺎﺑﺔ ﻓﻴﻬﺎ.
وﺗﻘﻮل اﻟﺒﺎﺣﺜﺔ ﺳﺎرة ﺑﺮاﻳﻮر إن ﻣﺸﻜﻠﺔ اﳌـﻮاد اﳌﺴﻴﺌﺔ ﻻزﻣﺖ ﻣﻮاﻗﻊ اﻟﺘﻮاﺻﻞ اﻻﺟﺘﻤﺎﻋﻲ ﻣﻨﺬ ﺑﺪاﻳﺎﺗﻬﺎ. وﻓﻲ ﺣﺎﻟﺔ »ﻓﻴﺴﺒﻮك« ﻟﻢ ﺗﻀﻊ إدارة اﳌﻮﻗﻊ ﻣﻌﺎﻳﻴﺮ واﺿﺤﺔ وﺷﻔﺎﻓﺔ أو ﺿـﻮاﺑـﻂ ﳌﻨﻊ ﺗﺴﻠﻞ ﻫـﺬه اﳌــﻮاد إﻟﻰ اﳌـﺘـﺎﺑـﻌـﲔ، وﻟـﻜـﻨـﻬـﺎ ﻣــﻊ ذﻟــﻚ دﺷﻨﺖ ﺧﺪﻣﺔ اﻟﺒﺚ اﻟﺤﻲ اﳌﺒﺎﺷﺮ اﻟﺘﻲ ﺗﻤﻜﻦ ﺑﻬﺎ اﻹرﻫﺎﺑﻲ ﻣﻦ ﺑﺚ ﻋﻤﻠﻴﺎت اﻟﻘﺘﻞ ﻋﻠﻰ »ﻓﻴﺴﺒﻮك« ﻣﺒﺎﺷﺮة ﺑﻼ رﻗﺎﺑﺔ.
وﺗﺸﻴﺮ ﺑﺮاﻳﻮر إﻟﻰ أن ﺳﺒﺐ ﻋﺪم وﺟــﻮد اﻟـﺮﻗـﺎﺑـﺔ اﻟﻜﺎﻓﻴﺔ ﻋﻠﻰ ﻣﻮاﻗﻊ اﻟﺘﻮاﺻﻞ اﻻﺟﺘﻤﺎﻋﻲ ﻳﺮﺟﻊ إﻟﻰ أن ﻧﻤﻮذج ﻋﻤﻞ ﻫـﺬه اﳌﻮاﻗﻊ ﻗﺎﺋﻢ ﻋﻠﻰ ﺣــﺮﻳــﺔ ﺗـــﺒـــﺎدل اﳌــﻌــﻠــﻮﻣــﺎت وإﺿــﺎﻓــﺔ اﳌـﺤـﺘـﻮى. وﻫـﻨـﺎك ﺑﻌﺾ اﻟﻀﻮاﺑﻂ اﳌﺘﺎﺣﺔ ﳌﻨﻊ ﻛﻠﻤﺎت أو ﺻﻮر ﻣﺴﻴﺌﺔ وﻟﻜﻨﻬﺎ ﻟﻴﺴﺖ ﻛﺎﻓﻴﺔ، ﻷن ﺑﻌﻀﻬﺎ ﻣﺘﺮوك ﻟﻠﻤﺘﺎﺑﻊ ﻟﻜﻲ ﻳﻄﺒﻘﻬﺎ ﺑﻨﻔﺴﻪ، واﻟﺒﻌﺾ اﻵﺧﺮ ﻳﻨﺘﻈﺮ ﺗﻠﻘﻲ ﺷﻜﺎوى ﻣــﻦ ﻣــﺤــﺘــﻮى ﻣــﻌــﲔ ﻗــﺒــﻞ اﻟــﻨــﻈــﺮ ﻓﻲ ﺣﺬﻓﻪ.
وﻫــــــﻨــــــﺎك اﻟــــﻜــــﺜــــﻴــــﺮ ﻣــــــﻦ اﳌـــﺸـــﺎﻛـــﻞ اﻷﺧــﺮى اﻟﺘﻲ ﺗﻮاﺟﻪ ﻣﻮاﻗﻊ اﻟﺘﻮاﺻﻞ اﻻﺟﺘﻤﺎﻋﻲ ﻣﻨﻬﺎ اﻟﺤﺴﺎﺑﺎت اﳌﺰﻳﻔﺔ اﻟﺘﻲ ﻻ ﻳﻤﻜﻦ اﻟﻮﺻﻮل إﻟﻰ ﺻﺎﺣﺒﻬﺎ اﻟـﺤـﻘـﻴـﻘـﻲ، واﻟــﺘــﻲ ﺗـﺒـﺚ ﻣـــﻮاد ﻣﺴﻴﺌﺔ وﻣـــﺘـــﻄـــﺮﻓـــﺔ ﺗـــﺤـــﺖ ﺳــــﺘــــﺎر ﻣــﺴــﺘــﺨــﺪم وﻫـــﻤـــﻲ. أﻳــﻀــﺎ ﻫــﻨــﺎك ﻣــﻌــﺎﻳــﻴــﺮ اﻟـﺴـﻦ اﻟﻘﺎﻧﻮﻧﻴﺔ ﳌﺸﺎﻫﺪة ﺑﻌﺾ اﳌﻮاد اﻟﺘﻲ ﺗﺘﺮك ﻟﻠﻤﺴﺘﺨﺪم ﻟﻜﻲ ﻳﺤﺪدﻫﺎ ﺑﻨﻔﺴﻪ، وﻟﻜﻦ ﻣﻦ دون رﻗﺎﺑﺔ ﺣﻘﻴﻘﻴﺔ ﻋﻤﺎ إذا ﻛﺎن اﳌﺴﺘﺨﺪم ﻗﺪ ﺑﻠﻎ ﺳﻦ اﻟﺮﺷﺪ أم ﻻ.
ﻣـــﻦ اﳌــﺸــﺎﻛــﻞ اﻷﺧــــــﺮى اﻟـــﺘـــﻲ ﺗﻌﺪ ﻋــﺼــﺮﻳــﺔ وﺣـــﺪﻳـــﺜـــﺔ، ﻣـﺸـﻜـﻠـﺔ اﻷﺧــﺒــﺎر اﻟﻜﺎذﺑﺔ اﻟﺘﻲ ﺗﻨﺘﺸﺮ ﻋﻠﻰ اﳌﻮاﻗﻊ ﺑﻼ رﻗـــﺎﺑـــﺔ وﻻ ﻣــﺤــﺎﺳــﺒــﺔ، ﺑــﻴــﻨــﻤــﺎ ﺗﻄﺒﻖ ﻣﻌﺎﻳﻴﺮ اﻟـﻨـﺸـﺮ ﺑـﺼـﺮاﻣـﺔ ﻣــﻊ ﻧـﺎﺷـﺮي اﻟﺼﺤﻒ ﻣﺜﻼ.
ﻣﻦ ﻧﺎﺣﻴﺔ أﺧﺮى، ﻳﺸﻜﻮ اﻟﻘﺎﺋﻤﻮن ﻋــﻠــﻰ ﻣــﺮاﻗــﺒــﺔ وﺣــــﺬف اﳌـــــﻮاد اﳌﺴﻴﺌﺔ ﻓـﻲ »ﻓﻴﺴﺒﻮك« ﻣـﻦ اﻷﺟــﻮر اﻟﻀﻌﻴﻔﺔ وﻇـــــﺮوف اﻟــﻌــﻤــﻞ اﻟــﺼــﻌــﺒــﺔ واﳌــﺸــﺎﻫــﺪ اﳌﺴﻴﺌﺔ اﻟﺘﻲ ﻳﺘﻌﺮﺿﻮن ﻟﻬﺎ روﺗﻴﻨﻴﴼ ﺑﺼﻔﺔ ﻳﻮﻣﻴﺔ. وﻻ ﻳـﺰﻳـﺪ أﺟــﺮ اﻟﻌﺎﻣﻞ ﻓـــﻲ ﻫـــــﺬه اﳌــــﺠــــﺎﻻت داﺧــــــﻞ اﻟـــﻮﻻﻳـــﺎت اﳌـﺘـﺤـﺪة ﻋـﻠـﻰ ٨٢ أﻟــﻒ دوﻻر ﺳﻨﻮﻳﴼ، ﻗﺒﻞ اﻟﻀﺮاﺋﺐ، وﻫﻮ ﻣﺒﻠﻎ ﻻ ﻳﻜﻔﻞ ﻟﻪ ﺣﻴﺎة ﻣﺴﺘﻘﺮة.
وﻳﻘﻮل ﻣﺪﻳﺮ ﺳﺎﺑﻖ ﻓﻲ »ﻓﻴﺴﺒﻮك« اﺳـﻤـﻪ ﺳﺘﻴﻔﻦ ﺷﻴﻠﺮ إﻧــﻪ ﺧــﻼل ﻋﻤﻠﻪ ﻓﻲ اﻟﺸﺮﻛﺔ ﻗﺒﻞ ﻋﺎم ٧١٠٢ اﻛﺘﺸﻒ أن اﳌـﻮﻗـﻊ ﻳﻔﻘﺪ اﻟﺴﻴﻄﺮة ﺗﺪرﻳﺠﻴﴼ ﻋﻠﻰ اﳌﻮاد اﻟﺘﻲ ﺗﺒﺚ ﻣﻦ ﺧﻼﻟﻪ. وﻣﻊ ﺗﻘﺪم اﻟﺘﻜﻨﻮﻟﻮﺟﻴﺎ وﺗـﺴـﺎرع وﺗﻴﺮﺗﻬﺎ ﻛﺎن ﻫﻨﺎك اﻟﻜﺜﻴﺮ ﻣﻦ اﻟﻘﺮارات اﻟﺘﻲ ﻳﺘﻌﲔ اﺗﺨﺎذﻫﺎ وﻟﻜﻨﻬﺎ ﻟﻢ ﺗﺘﺨﺬ.
وأﻇﻬﺮ ﺣﺎدث ﻧﻴﻮزﻳﻠﻨﺪا اﻹرﻫﺎﺑﻲ اﻧــــﻌــــﺪام اﻟـــﺮﻗـــﺎﺑـــﺔ ﻋــﻠــﻰ اﻟـــﺒـــﺚ اﻟــﺤــﻲ. وﻳﻄﺎﻟﺐ ﻣﺴﺆوﻟﻮن ﺣﻜﻮﻣﻴﻮن ﻣﻨﻬﻢ رﺋـﻴـﺴـﺔ وزراء ﻧـﻴـﻮزﻳـﻠـﻨـﺪا ﺟـﺎﺳـﻴـﻨـﺪا أردﻳـــــــــﺮن، ورﺋـــﻴـــﺲ وزراء أﺳــﺘــﺮاﻟــﻴــﺎ ﺳــــﻜــــﻮت ﻣـــــﻮرﻳـــــﺴـــــﻮن، وﻣــــﺴــــﺆوﻟــــﻮن آﺧــﺮون ﺣــﻮل اﻟـﻌـﺎﻟـﻢ، ﺑﺘﺠﻤﻴﺪ ﺧﺪﻣﺔ اﻟﺒﺚ اﻟﺤﻲ ﻣﻦ »ﻓﻴﺴﺒﻮك« ﺣﺘﻰ ﺗﺘﻤﻜﻦ اﻟﺸﺮﻛﺔ ﻣﻦ ﺿﺒﻂ ﻣﺎ ﻳﺒﺚ ﻋﻠﻴﻬﺎ. *ﻫﻞ ﻣﻦ ﺣﻠﻮل؟ ﻳـــﺠـــﺐ اﻻﻋــــــﺘــــــﺮاف ﺑــــــــﺄن ﺷـــﺮﻛـــﺎت وﺳـــﺎﺋـــﻂ اﻟــﺘــﻮاﺻــﻞ اﻻﺟــﺘــﻤــﺎﻋــﻲ ﻫﻲ ﺷﺮﻛﺎت ﺗﺠﺎرﻳﺔ ﺗﻬﺪف إﻟﻰ اﻟﺮﺑﺢ وﻻ ﺗﻀﻊ ﻓﻲ أوﻟﻮﻳﺎﺗﻬﺎ اﳌﻌﺎﻳﻴﺮ اﻷﺧﻼﻗﻴﺔ أو اﻷدﺑﻴﺔ. وﻫﻲ ﻧﻤﻮذج ﺟﺪﻳﺪ ﻟﻠﻤﻴﺪﻳﺎ اﻟــﺘــﻲ ﺗــﺠــﻤــﻊ اﳌـــﻠـــﻴـــﺎرات ﻣـــﻦ اﻟــﻌــﻮاﺋــﺪ وﻻ ﺗــﻠــﺘــﺰم ﺑــﺎﳌــﻌــﺎﻳــﻴــﺮ واﳌــﺴــﺆوﻟــﻴــﺎت اﳌـــــﻔـــــﺮوﺿـــــﺔ ﻋــــﻠــــﻰ وﺳــــــﺎﺋــــــﻞ اﻹﻋـــــــﻼم اﻟــﺘــﻘــﻠــﻴــﺪﻳــﺔ ﻣــﺜــﻞ اﻟــﺼــﺤــﻒ واﻟـــﺮادﻳـــﻮ واﻟﺘﻠﻔﺰﻳﻮن. وﺣﺘﻰ اﻵن أﺛﺒﺘﺖ ﻫﺬه اﻟﻮﺳﺎﺋﻞ أﻧﻬﺎ ﻟﻴﺴﺖ راﻏﺒﺔ أو ﻗـﺎدرة ﻋﻠﻰ ﺿﺒﻂ ﻣﺤﺘﻮﻳﺎﺗﻬﺎ ﺗﻠﻘﺎﺋﻴﴼ، وﻟﺬﻟﻚ ﻣﻦ اﳌﺘﻮﻗﻊ أن ﺗﺆدي اﻟﺘﻄﻮرات اﻷﺧﻴﺮة إﻟﻰ ﺣﻠﻮل ﻣﻦ ﺧﺎرج ﻫﺬه اﳌﺆﺳﺴﺎت.
ﻣﻦ ﻫﺬه اﻟﺤﻠﻮل ﺗﻄﺒﻴﻖ اﻟﺤﻜﻮﻣﺎت ﻟـﻠـﻤـﻌـﺎﻳـﻴـﺮ اﻟــﺘــﻲ ﻳــﺠــﺐ أن ﺗــﻠــﺘــﺰم ﺑﻬﺎ وﺳــــﺎﺋــــﻞ اﻟـــﺘـــﻮاﺻـــﻞ اﻻﺟـــﺘـــﻤـــﺎﻋـــﻲ ﻣـﻦ أﺟــــﻞ اﻟـــﺴـــﻤـــﺎح ﺑــﻌــﻤــﻠــﻬــﺎ. وﺗـﺴـﺘـﻄـﻴـﻊ اﻟﺤﻜﻮﻣﺎت ﻣﻨﻊ ﻫﺬه اﳌﻮاﻗﻊ ﻣﻦ اﻟﻌﻤﻞ ﻋﻠﻰ أراﺿﻴﻬﺎ ﻓﻲ ﺣﺎﻻت ﻋﺪم اﻻﻟﺘﺰام ﺑﺎﳌﻌﺎﻳﻴﺮ. وﻟﻜﻦ ﻫﺬا اﻟﺤﻞ ﻗﺪ ﺗﺸﻮﺑﻪ ﺷـﺒـﻬـﺔ اﻟــﺘــﺤــﻜــﻢ اﻟــﺴــﻴــﺎﺳــﻲ أو ﻓــﺮض اﻟﺮﻗﺎﺑﺔ ﻋﻠﻰ ﺣﺮﻳﺔ اﳌﻌﻠﻮﻣﺎت. وﻳﻌﺘﻤﺪ أﺳـﻠـﻮب اﻟﺮﻗﺎﺑﺔ ﻋﻠﻰ ﺗﻌﺮﻳﻒ وﺳﺎﺋﻞ اﻟـــﺘـــﻮاﺻـــﻞ ﻋــﻠــﻰ أﻧــــﻬــــﺎ ﻣـــﺠـــﺮد ﻧــﺎﻗــﻠــﺔ ﻟﻠﻤﻌﻠﻮﻣﺎت أو أﻧﻬﺎ ﻧﺎﺷﺮة ﻟﻠﻤﺤﺘﻮى ﺗـﻠـﺘـﺰم ﺑـﻤـﺎ ﻳـﻠـﺘـﺰم ﺑــﻪ ﻧــﺎﺷــﺮو اﳌـﻴـﺪﻳـﺎ اﻵﺧﺮون.
ﺣﻞ آﺧﺮ، ﻫﻮ أن ﺗﺘﺪﺧﻞ اﻟﺸﺮﻛﺎت اﳌــﻌــﻠــﻨــﺔ ﻟــــﺪى ﻫــــﺬه اﳌــــﻮاﻗــــﻊ وﺗــﻔــﺮض ﺷــﺮوﻃــﻬــﺎ ﳌــﻨــﻊ اﳌــﺤــﺘــﻮﻳــﺎت اﳌـﺴـﻴـﺌـﺔ أو ﺳــﺤــﺐ ﺣـــﻤـــﻼت إﻋـــﻼﻧـــﻬـــﺎ. وﻣــﺜــﻞ ﻫــــﺬه اﻟــﺨــﻄــﻮة ﻣـــﻦ ﺷــﺄﻧــﻬــﺎ أن ﺗـﻠـﻔـﺖ اﻧــﺘــﺒــﺎه ﺷــﺮﻛــﺎت اﻟــﺘــﻮاﺻــﻞ ﻓــــﻮرﴽ ﻷﻧــﻪ ﻳﺼﻴﺒﻬﺎ ﻓﻲ ﻣﺼﺎدر إﻳـﺮاداﺗـﻬـﺎ. وﻗﺪ ﺑﺪأت ﺷﺮﻛﺎت أﺳﺘﺮاﻟﻴﺔ وﻧﻴﻮزﻳﻠﻨﺪﻳﺔ ﺑﺎﻟﻔﻌﻞ ﻓﻲ ﺗﻄﺒﻴﻖ ﻣﻘﺎﻃﻌﺔ، ﻓﻲ أﻋﻘﺎب ﺑـﺚ اﻟــﺤــﺎدث اﻹرﻫــﺎﺑــﻲ، وﻣﻨﻬﺎ ﺑﻨﻮك وﺷﺮﻛﺎت ﻣﻮاد اﺳﺘﻬﻼﻛﻴﺔ.
وﺗـﺪرس ﻫﻴﺌﺎت ﺣﻤﺎﻳﺔ اﳌﺴﺘﻬﻠﻚ ﻓـﻲ اﻟﻜﺜﻴﺮ ﻣـﻦ اﻟـــﺪول، ﻣﻨﺼﺎت اﻟﺒﺚ ﻋـﻠـﻰ اﻹﻧــﺘــﺮﻧــﺖ وأﺳــﻠــﻮب ﻋﻤﻠﻬﺎ وﻣـﺎ ﻳــﺘــﻌــﲔ اﺗـــﺨـــﺎذه ﻣـــﻦ ﻗــــــﺮارات ﻟﺘﻨﻈﻴﻢ ﻋـﻤـﻠـﻬـﺎ ﻣــﻦ دون اﻟــﺤــﺪ ﻣــﻦ ﺣـﺮﻳـﺘـﻬـﺎ. وﻛﺎن أﺣﺪ اﻟﻘﺮارات اﻟﺘﻲ اﺗﺨﺬت أﺧﻴﺮﴽ ﻣــﻦ ﻣـﻔـﻮﺿـﻴـﺔ اﻻﺗــﺤــﺎد اﻷوروﺑــــــﻲ ﻗﺪ ﻓﺮض ﻏﺮاﻣﺔ ﻗﻴﺎﺳﻴﺔ ﻗﺪرﻫﺎ ٧٫١ ﻣﻠﻴﺎر دوﻻر ﻋﻠﻰ »ﻏـﻮﻏـﻞ« ﻟﺤﺠﺒﻪ ﻣﻌﻠﻨﲔ ﻋﻠﻰ ﻣﻮاﻗﻊ ﺑﺤﺚ أﺧﺮى.
وﺗﻌﺘﺒﺮ ﻫﺬه اﻟﻐﺮاﻣﺔ ﻫﻲ اﻟﺜﺎﻟﺜﺔ اﻟـﺘـﻲ ﺗﻔﺮﺿﻬﺎ أوروﺑـــﺎ ﻋﻠﻰ »ﻏـﻮﻏـﻞ« ﺧـــﻼل ﻋــﺎﻣــﲔ. وﺑــﻠــﻐــﺖ أرﺑـــــﺎح ﻣـﺤـﺮك »ﻏــﻮﻏــﻞ« ﻓــﻲ ﻋــﺎم ٧٫٠٣ ٨١٠٢، ﻣﻠﻴﺎر دوﻻر ارﺗﻔﺎﻋﴼ ﻣﻦ ٦٫٢١ ﻣﻠﻴﺎر دوﻻر ﻓﻲ ﻋﺎم ٧١٠٢.
ﺗﻮﺟﻬﺖ ﺷﺮﻃﺔ ﻧﻴﻮزﻳﻠﻨﺪا وﺣﻜﻮﻣﺘﻬﺎ ﺑﻄﻠﺒﺎت ﻋﺎﺟﻠﺔ إﻟﻰ »ﻓﻴﺴﺒﻮك« ﻟﺤﺬف ﻣﺤﺘﻮى اﻟﻬﺠﻮم ﻟﻜﻦ ذﻟﻚ اﺳﺘﻐﺮق ﺳﺎﻋﺎت اﻧﺘﺸﺮ ﺧﻼﻟﻬﺎ إﻟﻰ ٥٫١ ﻣﻠﻴﻮن ﻧﺴﺨﺔ ﺗﻌﲔ إزاﻟﺘﻬﺎ