<?xml version="1.0" encoding="utf-8" ?>
<rdf:RDF xmlns:rdf="http://www.w3.org/1999/02/22-rdf-syntax-ns#" xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:syn="http://purl.org/rss/1.0/modules/syndication/" xmlns="http://purl.org/rss/1.0/">




    



<channel rdf:about="https://cis-india.org/search_rss">
  <title>Centre for Internet and Society</title>
  <link>https://cis-india.org</link>
  
  <description>
    
            These are the search results for the query, showing results 221 to 235.
        
  </description>
  
  
  
  
  <image rdf:resource="https://cis-india.org/logo.png"/>

  <items>
    <rdf:Seq>
        
            <rdf:li rdf:resource="https://cis-india.org/internet-governance/news/roundtable-with-the-whatsapp-leadership"/>
        
        
            <rdf:li rdf:resource="https://cis-india.org/internet-governance/news/fxstreet-rajarshi-mitra-july-26-2019-twitter-reacts-to-india-s-crypto-currency-drama"/>
        
        
            <rdf:li rdf:resource="https://cis-india.org/internet-governance/blog/aayush-rathi-and-ambika-tandon-indian-express-july-29-2019-the-digital-identification-parade"/>
        
        
            <rdf:li rdf:resource="https://cis-india.org/internet-governance/news/european-summer-school-on-internet-governance"/>
        
        
            <rdf:li rdf:resource="https://cis-india.org/internet-governance/news/leveraging-web-application-vulnerabilities-for-reconnaissance-and-intelligence-gathering"/>
        
        
            <rdf:li rdf:resource="https://cis-india.org/internet-governance/news/lecture-at-international-summer-school-delhi"/>
        
        
            <rdf:li rdf:resource="https://cis-india.org/internet-governance/news/emerging-ai-technology-in-health-care-in-india-health-equity-and-justice-critical-reflections-and-charting-out-way-forward"/>
        
        
            <rdf:li rdf:resource="https://cis-india.org/internet-governance/news/deccan-herald-july-14-2019-rajmohan-sudhakar-deepfakes-algorithms-at-war-trust-at-stake"/>
        
        
            <rdf:li rdf:resource="https://cis-india.org/internet-governance/news/presentation-to-amnesty-international-on-researching-the-future-of-work"/>
        
        
            <rdf:li rdf:resource="https://cis-india.org/internet-governance/news/icann-65-de-briefing-meeting"/>
        
        
            <rdf:li rdf:resource="https://cis-india.org/internet-governance/blog/what-is-the-problem-with-2018ethical-ai2019-an-indian-perspective"/>
        
        
            <rdf:li rdf:resource="https://cis-india.org/internet-governance/news/e2de2de01e41e1ae1ae23e30e1ae1ae02e49e2de21e39e25e1be23e30e0ae32e0ae19e14e34e08e34e17e31e25-e04e38e22e01e31e1ae1ce39e49e40e0ae35e48e22e27e0ae32e0de2be32e41e19e27e17e32e07e40e2be21e32e30e2ae21"/>
        
        
            <rdf:li rdf:resource="https://cis-india.org/internet-governance/news/bis-litd-17-meeting"/>
        
        
            <rdf:li rdf:resource="https://cis-india.org/internet-governance/blog/the-wire-mira-swaminathan-and-shweta-reddy-july-20-2019-old-isnt-always-gold-face-app-and-its-privacy-policies"/>
        
        
            <rdf:li rdf:resource="https://cis-india.org/internet-governance/news/roundtable-discussion-on-201cthe-future-of-ai-policy-in-india201d-icrier"/>
        
    </rdf:Seq>
  </items>

</channel>


    <item rdf:about="https://cis-india.org/internet-governance/news/roundtable-with-the-whatsapp-leadership">
    <title>Roundtable with the WhatsApp leadership</title>
    <link>https://cis-india.org/internet-governance/news/roundtable-with-the-whatsapp-leadership</link>
    <description>
        &lt;b&gt;Will Cathcart, WhatsApp's new global head, visited India and invited Sunil Abraham for a discussion on 26 July 2019 at the Mountbatten, The Oberoi, New Delhi. Sunil met with some other people from WhatsApp leadership.&lt;/b&gt;
        &lt;p style="text-align: justify; "&gt;Discussions took place on the changing policy landscape in India. The event was a free flowing off the record discussion for about an hour between Will Cathcart and representatives of leading civil society organizations.&lt;/p&gt;
        &lt;p&gt;
        For more details visit &lt;a href='https://cis-india.org/internet-governance/news/roundtable-with-the-whatsapp-leadership'&gt;https://cis-india.org/internet-governance/news/roundtable-with-the-whatsapp-leadership&lt;/a&gt;
        &lt;/p&gt;
    </description>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Admin</dc:creator>
    <dc:rights></dc:rights>

    
        <dc:subject>Internet Governance</dc:subject>
    
    
        <dc:subject>Privacy</dc:subject>
    

   <dc:date>2019-07-30T00:33:15Z</dc:date>
   <dc:type>News Item</dc:type>
   </item>


    <item rdf:about="https://cis-india.org/internet-governance/news/fxstreet-rajarshi-mitra-july-26-2019-twitter-reacts-to-india-s-crypto-currency-drama">
    <title>Twitter reacts to the India's cryptocurrency drama</title>
    <link>https://cis-india.org/internet-governance/news/fxstreet-rajarshi-mitra-july-26-2019-twitter-reacts-to-india-s-crypto-currency-drama</link>
    <description>
        &lt;b&gt;An Inter-Ministerial Committee led by Subhash Chandra Garg, secretary, Department of Economic Affairs (DEA) has submitted a report which will recommend a ban on cryptocurrency in India to the finance ministry.&lt;/b&gt;
        &lt;p style="text-align: justify; "&gt;The blog post by Rajarshi Mitra was published by &lt;a class="external-link" href="http://https//www.fxstreet.com/cryptocurrencies/news/twitter-reacts-to-the-indias-cryptocurrency-drama-201907260246"&gt;FX Street&lt;/a&gt; on July 26, 2019. Pranesh Prakash tweeted on this issue.&lt;/p&gt;
&lt;hr /&gt;
&lt;p style="text-align: justify; "&gt;The IMC is, however, encouraging the use of blockchain technology and is agnostic about digital currencies backed by the Reserve Bank of India (RBI). Prominent members of the crypto community have sounded off on the situation in India.&lt;/p&gt;
&lt;p&gt;Tim Draper - Founder of DFJ Venture Capital:&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;“People behaving badly! India's government banned Bitcoin, a currency providing great hope for prosperity in a country that desperately needs it. Shame on India leadership. Pathetic and corrupt. #India #bitcoin.”&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Anthony Pompliano - Co-founder &amp;amp; Partner at Morgan Creek Digital:&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;“We need to pay attention to what is happening in India around cryptocurrency regulation. I’m willing to fly to meet with lawmakers and regulators if someone can get me a meeting. Who can help?”&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Pranesh Prakash:&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;“India's proposed #cryptocurrency ban would cover non-crypto currencies too, if they go ahead with the current definition. For instance, Amazon gift cards will also get covered, and be banned.”&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Ajeet Khurana - CEO Zebpay:&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;“I have talked to most of the cryptocurrency decision makers in the Indian establishment and know that they are brilliant people with the best interest of India at heart. I implore them to avoid denying India its rightful place in history.”&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;XRPcryptowolf:&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;“Indian panel thinks a #Cryptocurrency created by RBI could be a boon for india &amp;amp; that regulators should consider creating a sovereign #Cryptocurrency At the same time they proposed a ban &amp;amp; up to 10 years in prison for general use of #Crypto in India What a bunch of hypocrites‍♂️.”&lt;/p&gt;
&lt;/blockquote&gt;
        &lt;p&gt;
        For more details visit &lt;a href='https://cis-india.org/internet-governance/news/fxstreet-rajarshi-mitra-july-26-2019-twitter-reacts-to-india-s-crypto-currency-drama'&gt;https://cis-india.org/internet-governance/news/fxstreet-rajarshi-mitra-july-26-2019-twitter-reacts-to-india-s-crypto-currency-drama&lt;/a&gt;
        &lt;/p&gt;
    </description>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Rajarshi Mitra</dc:creator>
    <dc:rights></dc:rights>

    
        <dc:subject>Internet Governance</dc:subject>
    

   <dc:date>2019-07-30T00:25:58Z</dc:date>
   <dc:type>News Item</dc:type>
   </item>


    <item rdf:about="https://cis-india.org/internet-governance/blog/aayush-rathi-and-ambika-tandon-indian-express-july-29-2019-the-digital-identification-parade">
    <title>The Digital Identification Parade</title>
    <link>https://cis-india.org/internet-governance/blog/aayush-rathi-and-ambika-tandon-indian-express-july-29-2019-the-digital-identification-parade</link>
    <description>
        &lt;b&gt;NCRB’s proposed Automated Facial Recognition System impinges on right to privacy, is likely to target certain groups.&lt;/b&gt;
        &lt;p style="text-align: justify; "&gt;The article by Aayush Rathi and Ambika Tandon was &lt;a class="external-link" href="https://indianexpress.com/article/opinion/columns/digital-identification-facial-recognition-system-ncrb-5859072/"&gt;published in the Indian Express&lt;/a&gt; on July 29, 2019.  The authors acknowledge Sumandro Chattapadhyay, Amber Sinha and Arindrajit Basu for their edits and Karan Saini for his inputs.&lt;/p&gt;
&lt;hr /&gt;
&lt;p style="text-align: justify; "&gt;The National Crime Records Bureau recently issued a request for proposals for the procurement of an Automated Facial Recognition System (AFRS). The stated objective of the AFRS is to “identify criminals, missing persons/children, unidentified dead bodies and unknown traced children/persons”. It will be designed to compare images against a “watchlist” curated using images from “any […] image database available with police/other entity”, and “newspapers, raids, sent by people, sketches, etc.” The integration of diverse databases indicates the lack of a specific purpose, with potential for ad hoc use at later stages. Data sharing arrangements with the vendor are unclear, raising privacy concerns around corporate access to sensitive information of crores of individuals.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;While a senior government official clarified that the AFRS will only be used against the integrated police database in India — the Crime and Criminal Tracking Network and Systems (CCTNS) — the tender explicitly states the integration of several other databases, including the passport database, and the National Automated Fingerprint Identification System. This is hardly reassuring. Even a targeted database like the CCTNS risks over-representation of marginalised communities, as has already been witnessed in other countries. The databases that the CCTNS links together have racial and colonial origins, recording details of unconvicted persons if they are found to be “suspicious”, based on their tribe, caste or appearance. However, including other databases puts millions of innocent individuals on the AFRS’s watchlist. The objective then becomes to identify “potential criminals” — instead of being “presumed innocent”, we are all persons-who-haven’t-been-convicted-yet.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;The AFRS may allow indiscriminate searching by tapping into publicly and privately installed CCTVs pan-India. While facial recognition technology (FRT) has proliferated globally, only a few countries have systems that use footage from CCTVs installed in public areas. This is the most excessive use of FRT, building on its more common implementation as border technology. CCTV cameras are already rife with cybersecurity issues, and integration with the AFRS will expand the “attack surface” for exploiting vulnerabilities in the AFRS. Additionally, the AFRS will allow real-time querying, enabling “continuous” mass surveillance. Misuse of continuous surveillance has been seen in China, with the Uighurs being persecuted as an ethnic minority.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;FRT differs from other biometric forms of identification (such as fingerprints, DNA samples) in the degree and pervasiveness of surveillance that it enables. It is designed to operate at a distance, without any knowledge of the targeted individual(s). It is far more difficult to prevent an image of one’s face from being captured, and allows for the targeting of multiple persons at a time. By its very nature, it is a non-consensual and covert surveillance technology.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;Potential infringements on the right to privacy, a fundamental right, could be enormous as FRT allows for continuous and ongoing identification. Further, the AFRS violates the legal test of proportionality that was articulated in the landmark Puttaswamy judgment, with constant surveillance being used as a strategy for crime detection. Other civil liberties such as free speech and the right to assemble peacefully could be implicated as well, as specific groups of people such as dissidents and protests can be targeted.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;Moreover, facial recognition technology has not performed well as a crime detection technology. Challenges arise at the stage of input itself. Variations in pose, illumination, and expression, among other factors, adversely impact the accuracy of automated facial analysis. In the US, law enforcement has been using images from low-quality surveillance feed as probe photos, leading to erroneous matches. A matter of concern is that several arrests have been made solely on the basis of likely matches returned by FRT.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;Research indicates that default camera settings better expose light skin than dark, which affects results for FRT across racial groups. Moreover, the software could be tested on certain groups more often than others, and could consequently be more accurate in identifying individuals from that group. The AFRS is envisioned as having both functionalities of an FRT — identification of an individual, and social classification — with the latter holding significant potential to misclassify minority communities.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;In the UK, after accounting for a host of the issues outlined above, the Science and Technology Committee, comprising 14 sitting MPs, recently called for a moratorium on deploying live FRT. It will be prudent to pay heed to this directive in India, in the absence of any framework around data protection, or the use of biometric technologies by law enforcement.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;The experience of law enforcement’s use of FRT globally, and the unique challenges posed by the usage of live FRT demand closer scrutiny into how it can be regulated. One approach may be to use a technology-neutral regulatory framework that identifies gradations of harms. However, given the history of political surveillance by the Indian state, a complete prohibition on FRT may not be too far-fetched.&lt;/p&gt;
        &lt;p&gt;
        For more details visit &lt;a href='https://cis-india.org/internet-governance/blog/aayush-rathi-and-ambika-tandon-indian-express-july-29-2019-the-digital-identification-parade'&gt;https://cis-india.org/internet-governance/blog/aayush-rathi-and-ambika-tandon-indian-express-july-29-2019-the-digital-identification-parade&lt;/a&gt;
        &lt;/p&gt;
    </description>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Aayush Rathi and Ambika Tandon</dc:creator>
    <dc:rights></dc:rights>

    
        <dc:subject>Internet Governance</dc:subject>
    
    
        <dc:subject>Privacy</dc:subject>
    

   <dc:date>2019-07-30T00:19:25Z</dc:date>
   <dc:type>Blog Entry</dc:type>
   </item>


    <item rdf:about="https://cis-india.org/internet-governance/news/european-summer-school-on-internet-governance">
    <title>European Summer School on Internet Governance</title>
    <link>https://cis-india.org/internet-governance/news/european-summer-school-on-internet-governance</link>
    <description>
        &lt;b&gt;The 13th European Summer School on Internet Governance was held at Meissen in Germany from 13 - 20 July 2019. Akriti Bopanna attended the school. The event was organized by EuroSSIG. &lt;/b&gt;
        &lt;p&gt;More information on the event can be &lt;a class="external-link" href="https://eurossig.eu/eurossig/2019-edition/programme-2019/"&gt;accessed on this page&lt;/a&gt;.&lt;/p&gt;
        &lt;p&gt;
        For more details visit &lt;a href='https://cis-india.org/internet-governance/news/european-summer-school-on-internet-governance'&gt;https://cis-india.org/internet-governance/news/european-summer-school-on-internet-governance&lt;/a&gt;
        &lt;/p&gt;
    </description>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Admin</dc:creator>
    <dc:rights></dc:rights>

    
        <dc:subject>Cyber Security</dc:subject>
    
    
        <dc:subject>Internet Governance</dc:subject>
    
    
        <dc:subject>Internet Freedom</dc:subject>
    

   <dc:date>2019-07-23T00:30:15Z</dc:date>
   <dc:type>News Item</dc:type>
   </item>


    <item rdf:about="https://cis-india.org/internet-governance/news/leveraging-web-application-vulnerabilities-for-reconnaissance-and-intelligence-gathering">
    <title>Leveraging Web Application Vulnerabilities for Reconnaissance and Intelligence Gathering</title>
    <link>https://cis-india.org/internet-governance/news/leveraging-web-application-vulnerabilities-for-reconnaissance-and-intelligence-gathering</link>
    <description>
        &lt;b&gt;Karan Saini gave a talk at the JSFoo Conference at the GRD College of Science in Coimbatore, Tamil Nadu on July 5, 2019. The event was organized by Has Geek.&lt;/b&gt;
        &lt;p&gt;Click to &lt;a class="external-link" href="http://cis-india.org/internet-governance/files/jsfoo-talk"&gt;view Karan's presentation&lt;/a&gt;&lt;/p&gt;
        &lt;p&gt;
        For more details visit &lt;a href='https://cis-india.org/internet-governance/news/leveraging-web-application-vulnerabilities-for-reconnaissance-and-intelligence-gathering'&gt;https://cis-india.org/internet-governance/news/leveraging-web-application-vulnerabilities-for-reconnaissance-and-intelligence-gathering&lt;/a&gt;
        &lt;/p&gt;
    </description>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Admin</dc:creator>
    <dc:rights></dc:rights>

    
        <dc:subject>Internet Governance</dc:subject>
    
    
        <dc:subject>Information Technology</dc:subject>
    

   <dc:date>2019-07-22T01:39:14Z</dc:date>
   <dc:type>News Item</dc:type>
   </item>


    <item rdf:about="https://cis-india.org/internet-governance/news/lecture-at-international-summer-school-delhi">
    <title> Lecture at International Summer School, Delhi</title>
    <link>https://cis-india.org/internet-governance/news/lecture-at-international-summer-school-delhi</link>
    <description>
        &lt;b&gt;Ambika Tandon and Aayush Rathi, on July 12, 2019, delivered a lecture at the International Summer School, Delhi.&lt;/b&gt;
        &lt;p style="text-align: justify; "&gt;The ISS is in its 6th year now, and is convened annually as a six week academic program. The ISS is held in affiliation with the Department of Political Science at Jamia Millia Islamia - A Central University (JMI) and with regular support from the Ministry of External Affairs (MEA) over the years.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;The lecture formed a part of the Innovation, Technology and the Future of Work course module at this year's edition. The speakers focused specifically on placing an intersectional lens to drive home the point that there will be not one future of work, but multiple. And how it is that we can begin to interrogate the various competing narratives that are being propagated. Ambika and Aayush also focused on how the present gendered ordering of the labour market stands to be reproduced in the various shapes work will take going forward.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;The presentation can be &lt;a class="external-link" href="https://www.beautiful.ai/player/-Lja51_8y4yH-LaqQPLT/Aayush-and-Ambika-ISS-lecture"&gt;accessed here&lt;/a&gt;.&lt;/p&gt;
        &lt;p&gt;
        For more details visit &lt;a href='https://cis-india.org/internet-governance/news/lecture-at-international-summer-school-delhi'&gt;https://cis-india.org/internet-governance/news/lecture-at-international-summer-school-delhi&lt;/a&gt;
        &lt;/p&gt;
    </description>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Admin</dc:creator>
    <dc:rights></dc:rights>

    
        <dc:subject>Future of Work</dc:subject>
    
    
        <dc:subject>Internet Governance</dc:subject>
    
    
        <dc:subject>Gender</dc:subject>
    

   <dc:date>2019-07-22T01:11:00Z</dc:date>
   <dc:type>News Item</dc:type>
   </item>


    <item rdf:about="https://cis-india.org/internet-governance/news/emerging-ai-technology-in-health-care-in-india-health-equity-and-justice-critical-reflections-and-charting-out-way-forward">
    <title>Emerging AI technology in health care in India, health equity and justice: Critical reflections and charting out way forward</title>
    <link>https://cis-india.org/internet-governance/news/emerging-ai-technology-in-health-care-in-india-health-equity-and-justice-critical-reflections-and-charting-out-way-forward</link>
    <description>
        &lt;b&gt;On July 13, 2019, Radhika Radhakrishnan, participated in a roundtable discussion on "Emerging AI technology in health care in India, health equity and justice: Critical reflections and charting out way forward." The event was organized by HEaL (Health, Ethics, and Law Institute of Training, Research and Advocacy) of FMES (Forum for Medical Ethics Society) in collaboration with CPS (Centre for Policy Studies), Indian Institute of Technology-Bombay.&lt;/b&gt;
        &lt;p style="text-align: justify; "&gt;Radhika chaired a session on the ethics of AI in healthcare in India,       and my main submissions included: the medicalization of and       experimentation on women's bodies under a medical-industrial       complex for the design of AI-based healthcare models, and FAT       (Fairness, Accountability, Transparency) concerns with AI. She was also invited to draft some of this content into a       paper submission to the &lt;a href="https://ijme.in/"&gt;Indian Journal of Medical Ethics&lt;/a&gt; which is a peer-reviewed and indexed academic journal run by FMES.&lt;span&gt; &lt;/span&gt;&lt;/p&gt;
        &lt;p&gt;
        For more details visit &lt;a href='https://cis-india.org/internet-governance/news/emerging-ai-technology-in-health-care-in-india-health-equity-and-justice-critical-reflections-and-charting-out-way-forward'&gt;https://cis-india.org/internet-governance/news/emerging-ai-technology-in-health-care-in-india-health-equity-and-justice-critical-reflections-and-charting-out-way-forward&lt;/a&gt;
        &lt;/p&gt;
    </description>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Admin</dc:creator>
    <dc:rights></dc:rights>

    
        <dc:subject>Internet Governance</dc:subject>
    
    
        <dc:subject>Artificial Intelligence</dc:subject>
    

   <dc:date>2019-07-21T15:47:27Z</dc:date>
   <dc:type>News Item</dc:type>
   </item>


    <item rdf:about="https://cis-india.org/internet-governance/news/deccan-herald-july-14-2019-rajmohan-sudhakar-deepfakes-algorithms-at-war-trust-at-stake">
    <title>Deepfakes: Algorithms at war, trust at stake</title>
    <link>https://cis-india.org/internet-governance/news/deccan-herald-july-14-2019-rajmohan-sudhakar-deepfakes-algorithms-at-war-trust-at-stake</link>
    <description>
        &lt;b&gt;A case in point is the video that surfaced of an Indian journalist not so long ago.&lt;/b&gt;
        &lt;p&gt;The article by Rajmohan Sudhakar was published in &lt;a class="external-link" href="https://www.deccanherald.com/metrolife/metrolife-on-the-move/deepfakes-algorithms-at-war-trust-at-stake-747042.html"&gt;Deccan Herald&lt;/a&gt; on July 14, 2019. Elonnai Hickok was quoted.&lt;/p&gt;
&lt;hr /&gt;
&lt;p style="text-align: justify; "&gt;Now machines are learning to manipulate imagery. That is a real worry. Deepfakes for instance. They are AI-manipulated videos achieved by machine learning. Products of the humongous volume of images and videos now available online.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;The danger is, this imagery could be yours or mine. Imagine artificial intelligence of neural networks creating convincing identities of our real counterparts, and starts posting videos. Absurd.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;“Society has grappled with spurious and specious content in media over time. Media has been modified for various reasons, usually by those with access to significant resources and influence in the past,” says Elonnai Hickok, COO of the Bengaluru-based Centre for Internet and Society.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;From an AI and machine learning perspective, deepfakes could be understood by what is known as GAN -- generative adversarial networks, essentially two algorithms at war. One is a generator, the other a discriminator. They compete with each other based on set inputs, in time bettering the version they together help create. These are behind what are now known as deepfakes of popular figures floating around online. Barack Obama is seen saying in a purported deepfake, “stay woke bitches”, which of course he did not say.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;Another deepfake has Mark Zuckerberg boasting: “I have total control of billions of people’s stolen data, all their secrets, their lives, their futures.” “Deepfakes are media modified by current technology and techniques. Easy availability of technology and media allows anyone to create, tailor or manipulate media for their own ends. Deepfakes present an opportunity for introspection and research into the contours of freedom of expression as well as societal frameworks for dealing with fake content,” explains Hickok.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;One of the horrid instances of a deepfake-like attack was the video that surfaced of an Indian woman journalist not so long ago. Or the child-kidnapping rumours that spread through WhatsApp and the subsequent mob lynchings. However, there’s the view that in post-truth times, deepfakes would be seen with caution in the inherent dilemma over believing what one views online.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;“In India, people do not take these so seriously, especially on social media. It is mostly entertainment for many. Now, we are seeing people with diametrically opposing views. They often view content which they like to see. It would rather work as a reinforcer of views than a transformer,” feels political analyst Sandeep Shastri.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;Open source software can create basic deepfakes if someone wanted to hurt somebody. The potential scale of danger and damage looms larger for influential figures and nations at war.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;“While deep fakes can be used to damage societies, it is important that collectively society takes steps to become sensitised to ways that media can be used to manipulate opinions and choices, and allow people to develop skills that build awareness and context to what they see and believe,” adds Hickok.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;A video emerged recently of an ‘Iranian’ boat near an attacked oil tanker in the Persian Gulf. Deepfake or not, the authenticity of the video was questionable. If used wily, it could have triggered a war.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;According to Hickok, society has to get more resilient to manipulation. “This includes spoken, written, seen as well as heard information. We have to learn to question the basis on which we confirm trust. Multiple forms of verification may help to address spurious media and information,” she says.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;Deepfakes are no surprise as social media feed into the small and large divisions and differences of multitudes. Emergence of such potentially dangerous AIs isn’t taken quite seriously by the tech czars. In fact, it is a matter of economy for them.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;Oscar Schwartz writes in The Guardian that ‘technological solutionism’ in the ‘attention economy’ may not be the real approach. “And herein lies the problem: by formulating deepfakes as a technological problem, we allow social media platforms to promote technological solutions to those problems – cleverly distracting the public from the idea that there may be more fundamental problems with powerful Silicon Valley tech platforms,” Schwartz warns.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;“The measures do not fall on the regulators alone. I think, individuals (by introspection and building awareness), society (through education), the legal system (stringent evidentiary requirements and capacity building) industry (differentiating recreational and prejudicial content, tagging content that is manipulated, etc.) and regulators (enabling accountability, oversight, transparency and redress) can all contribute to a more resilient society,” observes Hickok.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;In India, viewing a video is still considered close to truth, almost sacred by the vast majority. Necessarily, it would not require a technologically advanced deepfake, especially in the backward rural pockets, to rile up and aggravate biases and prejudices.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;“Deepfakes can further existing biases and manipulate opinions and choices. They can disrupt trust inherent in societal groups to co-exist and politically, they can breed distrust in leadership and capability. That said, deepfakes can be used for humour and satire. Ultimately, the impact will be shaped by a number of factors including pre-existing biases, individual response, etc.,” Hickok elaborates.&lt;/p&gt;
&lt;p&gt;On a lighter note, deepfakes could be helpful too. We could very well do away with some of our television news presenters.&lt;/p&gt;
        &lt;p&gt;
        For more details visit &lt;a href='https://cis-india.org/internet-governance/news/deccan-herald-july-14-2019-rajmohan-sudhakar-deepfakes-algorithms-at-war-trust-at-stake'&gt;https://cis-india.org/internet-governance/news/deccan-herald-july-14-2019-rajmohan-sudhakar-deepfakes-algorithms-at-war-trust-at-stake&lt;/a&gt;
        &lt;/p&gt;
    </description>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Rajmohan Sudhakar</dc:creator>
    <dc:rights></dc:rights>

    
        <dc:subject>Internet Governance</dc:subject>
    
    
        <dc:subject>Artificial Intelligence</dc:subject>
    

   <dc:date>2019-07-21T15:42:12Z</dc:date>
   <dc:type>News Item</dc:type>
   </item>


    <item rdf:about="https://cis-india.org/internet-governance/news/presentation-to-amnesty-international-on-researching-the-future-of-work">
    <title> Presentation to Amnesty International on researching the Future of Work</title>
    <link>https://cis-india.org/internet-governance/news/presentation-to-amnesty-international-on-researching-the-future-of-work</link>
    <description>
        &lt;b&gt;Aayush Rathi and Ambika Tandon made a presentation to Amnesty International on July 18, 2019. &lt;/b&gt;
        &lt;p class="moz-quote-pre" style="text-align: justify; "&gt;Amnesty International is in the midst of designing its next big global strategy and were seeking inputs to 5 key questions (attached here). They were soliciting provocations to make sure that future of work issues are not left out of their vision and future strategy. Also invited was Will Stronge, director of Autonomy, a think tank in the UK. While he spoke about Autonomy's work that looks at future of work as enmeshed with climate change issues, we brought in a global South perspective and also made a case for why looking at gender is crucial, and why there is a need for methodological innovation in the study of the future of work. Click &lt;a class="external-link" href="http://cis-india.org/internet-governance/files/cis-amnesty-presentation"&gt;to view the presentation&lt;/a&gt;.&lt;/p&gt;
        &lt;p&gt;
        For more details visit &lt;a href='https://cis-india.org/internet-governance/news/presentation-to-amnesty-international-on-researching-the-future-of-work'&gt;https://cis-india.org/internet-governance/news/presentation-to-amnesty-international-on-researching-the-future-of-work&lt;/a&gt;
        &lt;/p&gt;
    </description>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Admin</dc:creator>
    <dc:rights></dc:rights>

    
        <dc:subject>Gender</dc:subject>
    
    
        <dc:subject>Internet Governance</dc:subject>
    
    
        <dc:subject>Future of Work</dc:subject>
    

   <dc:date>2019-07-21T15:23:52Z</dc:date>
   <dc:type>News Item</dc:type>
   </item>


    <item rdf:about="https://cis-india.org/internet-governance/news/icann-65-de-briefing-meeting">
    <title>ICANN 65 De-briefing Meeting</title>
    <link>https://cis-india.org/internet-governance/news/icann-65-de-briefing-meeting</link>
    <description>
        &lt;b&gt;The Indian Council for Research on International Economic Relations (ICRIER) organized an ICANN65 de-briefing meeting on July 16, 2019. Akriti Bopanna remotely presented on the Human Rights related developments that took place at the Marrakech meeting, over the course of the 4 days.
&lt;/b&gt;
        &lt;p style="text-align: justify; "&gt;Akriti's updates related to Workstream 2 Recommendations on Accountability,  the Government Advisory Council's options in incorporating HR in their  communication to the Board, their interest in our Human Rights Impact  Assessment work and having a high interest session on the same at ICANN66. She also spoke about her contributions to the ICANN Board on their  Anti-Harassment Policy along with details on the working group  established to discussing the policy.&lt;/p&gt;
        &lt;p&gt;
        For more details visit &lt;a href='https://cis-india.org/internet-governance/news/icann-65-de-briefing-meeting'&gt;https://cis-india.org/internet-governance/news/icann-65-de-briefing-meeting&lt;/a&gt;
        &lt;/p&gt;
    </description>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Admin</dc:creator>
    <dc:rights></dc:rights>

    
        <dc:subject>Freedom of Speech and Expression</dc:subject>
    
    
        <dc:subject>ICANN</dc:subject>
    
    
        <dc:subject>Internet Governance</dc:subject>
    

   <dc:date>2019-07-21T15:02:03Z</dc:date>
   <dc:type>News Item</dc:type>
   </item>


    <item rdf:about="https://cis-india.org/internet-governance/blog/what-is-the-problem-with-2018ethical-ai2019-an-indian-perspective">
    <title>What is the problem with ‘Ethical AI’? An Indian Perspective</title>
    <link>https://cis-india.org/internet-governance/blog/what-is-the-problem-with-2018ethical-ai2019-an-indian-perspective</link>
    <description>
        &lt;b&gt;On 22 May 2019, the OECD member countries adopted the OECD Council Recommendation on Artificial Intelligence. The Principles, meant to provide an “ethical framework” for governing Artificial Intelligence (AI), were the first set of guidelines signed by multiple governments, including non-OECD members: Argentina, Brazil, Colombia, Costa Rica, Peru, and Romania. &lt;/b&gt;
        &lt;p style="text-align: justify; "&gt;The article by Arindrajit Basu and Pranav M.B. was &lt;a class="external-link" href="https://cyberbrics.info/what-is-the-problem-with-ethical-ai-an-indian-perspective/"&gt;published by cyberBRICS&lt;/a&gt; on July 17, 2019.&lt;/p&gt;
&lt;hr style="text-align: justify; " /&gt;
&lt;p style="text-align: justify; "&gt;This was followed by the &lt;a href="https://g20trade-digital.go.jp/dl/Ministerial_Statement_on_Trade_and_Digital_Economy.pdf" rel="noreferrer noopener" target="_blank"&gt;G20 adopted human-centred AI Principles&lt;/a&gt; on June 9th. These are the latest in a slew of (&lt;a href="https://clinic.cyber.harvard.edu/2019/06/07/introducing-the-principled-artificial-intelligence-project/" rel="noreferrer noopener" target="_blank"&gt;at least 32!&lt;/a&gt;) public, and private ‘Ethical AI’ initiatives that seek to use ethics to guide the development, deployment and use of AI in a variety of use cases. They were conceived as a response to a range of concerns around algorithmic decision-making, including discrimination, privacy, and transparency in the decision-making process.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;In India, a noteworthy recent document that attempts to address these concerns is the &lt;a href="https://niti.gov.in/writereaddata/files/document_publication/NationalStrategy-for-AI-Discussion-Paper.pdf" rel="noreferrer noopener" target="_blank"&gt;National Strategy for Artificial Intelligence&lt;/a&gt; published by the National Institution for Transforming India, also called &lt;em&gt;NITI Aayog&lt;/em&gt;, in June 2018. As the NITI Aayog Discussion paper acknowledges, India is the fastest growing economy with the second largest population in the world and has a significant stake in understanding and taking advantage of the AI revolution. For these reasons the goal pursued by the strategy is to establish the National Program on AI, with a view to guiding the research and development in new and emerging technologies, while addressing questions on ethics, privacy and security.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;While such initiatives and policy measures are critical to promulgating discourse and focussing awareness on the broad socio-economic impacts of AI, we fear that they are dangerously conflating tenets of existing legal principles and frameworks, such as human rights and constitutional law, with ethical principles – thereby diluting the scope of the former. While we agree that ethics and law can co-exist, ‘Ethical AI’ principles are often drafted in a manner that posits as voluntary positive obligations various actors have taken upon themselves as opposed to legal codes they necessarily have to comply with.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;To have optimal impact, ‘Ethical AI’ should serve as a decision-making framework only in specific instances when human rights and constitutional law do not provide a ready and available answer.&lt;/p&gt;
&lt;h3 style="text-align: justify; "&gt;Vague and unactionable&lt;/h3&gt;
&lt;p style="text-align: justify; "&gt;Conceptually, ‘Ethical AI’ is a vague set of principles that are often difficult to define objectively. In this perspective, academics like Brett Mittelstadt of the Oxford Internet Institute &lt;a href="https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3391293" rel="noreferrer noopener" target="_blank"&gt;argues&lt;/a&gt; that unlike in the field of medicine – where ethics has been used to design a professional code, ethics in AI suffers from four core flaws. First, developers lack a common aim or fiduciary duty to a consumer, which in the case of medicine is the health and well-being of the patient. Their primary duty lies to the company or institution that pays their bills, which often prevents them from realizing the extent of the moral obligation they owe to the consumer.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;The second is a lack of professional history which can help clarify the contours of well-defined norms of ‘good behaviour.’ In medicine, ethical principles can be applied to specific contexts by considering what similarly placed medical practitioners did in analogous past scenarios. Given the relative nascent emergence of AI solutions, similar professional codes are yet to develop.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;Third is the absence of workable methods or sustained discourse on how these principles may be translated into practice. Fourth, and we believe most importantly, in addition to ethical codes, medicine is governed by a robust and stringent legal framework and strict legal and accountability mechanisms, which are absent in the case of ‘Ethical AI’. This absence gives both developers and policy-makers large room for manoeuvre.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;However, such focus on ethics may be a means of avoiding government regulation and the arm of the law. Indeed, due to its inherent flexibility and non-binding nature, ethics can be exploited as a piecemeal red herring solution to the problems posed by AI. Controllers of AI development are often profit-driven private entities, that gain reputational mileage by using the opportunity to extensively deliberate on broad ethical notions.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;Under the guise of meaningful ‘self-regulation’, several organisations publish internal ‘Ethical AI’ guidelines and principles, and &lt;a href="https://www.newstatesman.com/science-tech/technology/2019/06/how-big-tech-funds-debate-ai-ethics"&gt;fund ethics research&lt;/a&gt; across the globe. In doing so, they occlude the shackles of binding obligation and deflect from attempts at tangible regulation.&lt;/p&gt;
&lt;h3 style="text-align: justify; "&gt;Comparing Law to Ethics&lt;/h3&gt;
&lt;p style="text-align: justify; "&gt;This is in contrast to the well-defined jurisprudence that human rights and constitutional law offer, which should serve as the edifice of data-driven decision making in any context.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;In the table below, we try to explain this point by looking at how three core fundamental rights enshrined both in our constitution and human rights instruments across the globe-right to privacy, right to equality/right against discrimination and due process-find themselves captured in three different sets of ‘Ethical AI frameworks.’ One of these inter-governmental &lt;a href="https://www.oecd.org/going-digital/ai/principles/" rel="noreferrer noopener" target="_blank"&gt;(OECD)&lt;/a&gt;, one devised by a private sector actor (‘&lt;a href="https://ai.google/principles/" rel="noreferrer noopener" target="_blank"&gt;Google AI&lt;/a&gt;’) and one by our very own, &lt;a href="https://niti.gov.in/writereaddata/files/document_publication/NationalStrategy-for-AI-Discussion-Paper.pdf" rel="noreferrer noopener" target="_blank"&gt;NITI AAYOG.&lt;/a&gt;&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;&lt;img src="https://cyberbrics.info/wp-content/uploads/2019/07/image.png" /&gt;&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;With the exception of certain principles,most ‘Ethical AI’ principles are loosely worded as ‘‘seek to avoid’, ‘give opportunity for’, or ‘encourage’. A notable exception is the NITI AAYOG’s approach to protecting privacy in the context of AI. The document explicitly recommends the establishment of a national data protection framework for data protection, sectoral regulations that apply to specific contexts with the consideration of international standards such as GDPR as benchmarks. However, it fails to reference available constitutional standards when it discusses bias or explainability.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;Several similar legal rules that have been enshrined in legal provisions -outlined and elucidated through years of case law and academic discourse – can be utilised to underscore and guide AI principles. However, existing AI principles do not adequately articulate how the legal rule can actually be applied to various scenarios by multiple organisations.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;We do not need a new “Law of Artificial Intelligence” to regulate this space. Judge Frank Easterbrook’s famous 1996 proclamation on the &lt;a href="https://chicagounbound.uchicago.edu/cgi/viewcontent.cgi?referer=&amp;amp;httpsredir=1&amp;amp;article=2147&amp;amp;context=journal_articles"&gt;‘Law of the Horse’&lt;/a&gt; through which he opposed the creation of a niche field of ‘cyberspace law’ comes to mind. He argued that a multitude of legal rules deal with ‘horses’, including the sale of horses, individuals kicked by horses, and with the licensing and racing of horses. Like with cyberspace, any attempt to arrive at a corpus of specialised ‘law of the horse’ would be shallow and ineffective.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;Instead of fidgeting around for the next shiny regulatory tool, industry, practitioners, civil society and policy makers need to get back to the drawing board and think about applying the rich corpus of existing jurisprudence to AI governance.&lt;/p&gt;
&lt;h3 style="text-align: justify; "&gt;What is the role for ‘Ethical AI?’&lt;/h3&gt;
&lt;p style="text-align: justify; "&gt;What role can ‘ethical AI’ then play in forging robust and equitable governance of Artificial Intelligence? As it does in all other societal avenues, ‘ethical AI’ should serve as a framework for making legitimate algorithmic decisions in instances where law might not have an answer. An example of such a scenario is the &lt;a href="https://globalnews.ca/news/4125382/google-pentagon-ai-project-maven/" rel="noreferrer noopener" target="_blank"&gt;Project Maven saga&lt;/a&gt; – where 3,000 Google employees signed a petition opposing Google’s involvement with a US Department of Defense project by claiming that Google should not be involved in “the business of war.” There is no law-international or domestic that suggests that Project Maven-which was designed to study battlefield imagery using AI, was illegal. However, the debate at Google proceeded on ethical grounds and on the application of the ‘Ethical AI’ principles to this present context.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;We realise the importance of social norms and mores in carving out any regulatory space. We also appreciate the role of ethics in framing these norms for responsible behaviour. However, discourse across civil society, academic, industry and government circles all across the globe needs to bring law back into the discussion as a framing device. Not doing so risks diluting the debate and potential progress to a set of broad, unactionable principles that can easily be manipulated for private gain at the cost of public welfare.&lt;/p&gt;
        &lt;p&gt;
        For more details visit &lt;a href='https://cis-india.org/internet-governance/blog/what-is-the-problem-with-2018ethical-ai2019-an-indian-perspective'&gt;https://cis-india.org/internet-governance/blog/what-is-the-problem-with-2018ethical-ai2019-an-indian-perspective&lt;/a&gt;
        &lt;/p&gt;
    </description>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Arindrajit Basu and Pranav M.B.</dc:creator>
    <dc:rights></dc:rights>

    
        <dc:subject>Internet Governance</dc:subject>
    
    
        <dc:subject>Artificial Intelligence</dc:subject>
    

   <dc:date>2019-07-21T14:57:08Z</dc:date>
   <dc:type>Blog Entry</dc:type>
   </item>


    <item rdf:about="https://cis-india.org/internet-governance/news/e2de2de01e41e1ae1ae23e30e1ae1ae02e49e2de21e39e25e1be23e30e0ae32e0ae19e14e34e08e34e17e31e25-e04e38e22e01e31e1ae1ce39e49e40e0ae35e48e22e27e0ae32e0de2be32e41e19e27e17e32e07e40e2be21e32e30e2ae21">
    <title>ออกแบบระบบข้อมูลประชาชนดิจิทัล: คุยกับผู้เชี่ยวชาญหาแนวทางเหมาะสม</title>
    <link>https://cis-india.org/internet-governance/news/e2de2de01e41e1ae1ae23e30e1ae1ae02e49e2de21e39e25e1be23e30e0ae32e0ae19e14e34e08e34e17e31e25-e04e38e22e01e31e1ae1ce39e49e40e0ae35e48e22e27e0ae32e0de2be32e41e19e27e17e32e07e40e2be21e32e30e2ae21</link>
    <description>
        &lt;b&gt;Talk with Sunil Abraham, an expert on the Internet and good governance in the issue of creating a digital identification system.&lt;/b&gt;
        &lt;p style="text-align: justify; "&gt;What should you think before doing a national database? Transparency should be inversely proportional to the power of the person. The state must provide information as well. Not the only store Database technology and public surveillance are not the same. Otherwise the entire system will crash How important is democracy in making good information systems? &lt;span&gt;Read the interview &lt;/span&gt;&lt;a class="external-link" href="https://prachatai.com/journal/2019/07/83472"&gt;published by Prachatai&lt;/a&gt;&lt;span&gt; on July 18, 2019 below&lt;/span&gt;&lt;/p&gt;
&lt;hr style="text-align: justify; " /&gt;
&lt;p style="text-align: justify; "&gt;คุยกับสุนิล อับราฮัม ผู้เชี่ยวชาญเรื่องอินเทอร์เน็ตและธรรมาภิบาลในประเด็นการจัดทำระบบข้อมูลประจำตัวประชาชนแบบดิจิทัล                       ควรคิดอะไรก่อนทำฐานข้อมูลประชาชนระดับชาติ                       ความโปร่งใสควรแปรผกผันกับอำนาจของบุคคล                       รัฐต้องให้ข้อมูลด้วย ไม่ใช่เก็บอย่างเดียว                       เทคโนโลยีฐานข้อมูลกับการสอดส่องประชาชนไม่ใช่เรื่องเดียวกัน                       ไม่เช่นนั้นพังทั้งระบบ                       ประชาธิปไตยสำคัญอย่างไรกับการทำระบบข้อมูลที่ดี&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;หนึ่งในบทสนทนาที่มีในปัจจุบันคือการนำข้อมูลประชาชนขึ้นสู่ระบบดิจิทัล เทคโนโลยีการบริหารจัดการข้อมูลอย่างระบบฐานข้อมูลดิจิทัลไปจนถึงโครงข่ายออนไลน์แบบบลอกเชนทำให้จินตนาการดังกล่าวเป็นรูปเป็นร่างขึ้น&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;แต่เมื่อถอยกลับไปมองภาพใหญ่จะพบว่าเรื่องทางเทคนิคเป็นเพียงหนึ่งเม็ดทรายบนชายหาด ยังมีข้อควรคำนึงถึงเยอะแยะหยุมหยิมไปหมดทั้งในเรื่องกฎหมาย ความพร้อมของผู้บังคับใช้กฎหมาย ภาคธุรกิจและประชาชนที่ต้องคำนึงถึงเรื่องพฤติกรรม บรรทัดฐานของสังคม และคำถามสำคัญที่ว่าระบบดังกล่าวจะถูกใช้ในการเฝ้าระวัง สอดแนมประชาชนหรือไม่ เพราะประเทศเผด็จการที่คนไทยหลายคนยกย่องอย่างจีน ก็ใช้ข้อมูลอัตลักษณ์ประชาชนถึงขั้นคุมความประพฤติกันด้วยระบบคะแนนได้แล้ว&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;แม้ยังไม่เกิดในไทยแต่ก็ไม่ได้แปลว่าเป็นไปไม่ได้ ความกังวลของชาว 14 อำเภอและสามจังหวัดชายแดนใต้เมื่อมีข้อความ SMS จากกองอำนวยการรักษาความมั่นคงภายใน (กอ.รมน.) ให้ไปสแกนใบหน้าเพื่อลงทะเบียนซิมการ์ดตามประกาศของ กสทช. เป็นหนึ่งในภาพสะท้อนจากพื้นที่ที่ความมั่นคงหลอมรวมอยู่ในการใช้ชีวิตประจำวันที่ชัดเจน ปัญหาของการทำระบบนั้นยืนอยู่บนคำถามใหญ่ว่า “ทำอย่างไร” และ “เพื่ออะไร” หากกิจวัตรประจำวันของคนทั้งประความมั่นคงจะกลายเป็นองค์ประกอบในเทศ&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;สุนิล อับบราฮัม ผู้อำนวย (ผอ.) การบริหารจากศูนย์เพื่ออินเทอร์เน็ตและสังคมจากประเทศอินเดีย ให้สัมภาษณ์ประชาไทในเรื่องรูปร่างหน้าตาของระบบพิสูจน์อัตลักษณ์บุคคลดิจิทัลว่าควรเป็นแบบไหน อะไรที่ต้องคำนึงถึงและถามกันบ่อยๆ เมื่อจะออกแบบระบบ การเฝ้าระวังอาชญากรรมและปัญหาความมั่นคงทำได้แค่ไหน และการเป็นประชาธิปไตยเกี่ยวอะไรกับการมีระบบข้อมูลประชาชนดิจิทัลที่ดี&lt;/p&gt;
&lt;h2 style="text-align: justify; "&gt;ประชาไท: ระบบข้อมูลประชาชนดิจิทัลคืออะไร&lt;/h2&gt;
&lt;p style="text-align: justify; "&gt;&lt;strong&gt;สุนิล:&lt;/strong&gt; เดิมทีบัตรประชาชนเป็นวัตถุทางกายภาพ ส่วนมากก็เป็นกระดาษและมันก็มีข้อน่าห่วงมากๆ ในเรื่องความปลอดภัย เพราะว่ารัฐและบริษัทเอกชนต่างใช้บัตรประชาชนเพื่อไปถ่ายสำเนา อันนี้ผมได้ยินว่าในบริบทของไทยก็ถือเป็นเรื่องปกติเช่นกัน สิ่งที่คุณต้องการจริงๆ คือวิธีที่จะทำให้ภาครัฐและเอกชนยืนยันตัวตนโดยไม่ต้องเก็บข้อมูลจากคุณมากจนเกินไป&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;ในทางอุดมคตินั้นระบบเอกสารประจำตัวที่ดี ควรที่จะทำให้การยืนยันรายละเอียดของคุณอย่างพวกที่อยู่ อายุ สถานะจน-รวย โดยไม่ต้องเก็บข้อมูล (อื่นๆ) ที่ไม่จำเป็นรวมถึงเลขบัตรประชาชนด้วย แม้แต่เลขประจำตัวประชาชนของคุณก็ไม่ควรจะถูกเก็บไปโดยองค์กรอื่นๆ โดยไม่มีความจำเป็น&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;ปัจจุบันเรามีทางเลือกสองแบบ มีตัวอย่างในแคนาดา สหราชอาณาจักร หรือแม้แต่ในไทยที่กำลังทำ โครงการระบบพิสูจน์ตัวตนอิเลกทรอนิคส์แห่งชาติ หรือ National Digital ID (NDID) คุณคิดถึงวิธีแก้ปัญหาเรื่องระบบเอกสารประจำตัวในฐานะระบบนิเวศที่จะให้ตัวแสดงในระบบนิเวศยืนยันข้อมูลประจำตัวและเก็บข้อมูลของปัจเจกผ่านระบบการจัดการการยินยอมที่ดี (consent management)&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;(แต่) ก็มีหลายประเทศที่มีหน่วยงานจัดทำระบบฐานข้อมูลประชาชนแห่งชาติแบบรวมศูนย์ แล้วก็กลายเป็นจุดล้มเหลวจุดเดียว (Single Point of Failure - SPOF) ของระบบในประเทศ นี่จึงเป็นตัวเลือกใหญ่ๆ ที่แต่ละประเทศมี คือจะใช้วิธีจัดการแบบระบบนิเวศที่คิดถึงทุกอย่างแบบเป็นองค์รวม หรือมองว่าประเทศหนึ่งประเทศก็เหมือนกับบริษัทหรือมหาวิทยาลัย อะไรที่ใช้ได้กับบริษัทหรือมหาวิทยาลัยก็ใช้แบบนั้นกับประเทศทั้งประเทศ&lt;/p&gt;
&lt;h2 style="text-align: justify; "&gt;แต่ละวิธีมีข้อเสียต่างกันอย่างไร&lt;/h2&gt;
&lt;p style="text-align: justify; "&gt;ในทางวิทยาศาสตร์คอมพิวเตอร์และวิศวกรรมคอมพิวเตอร์ ผู้เชี่ยวชาญทุกคนจะบอกว่าไม่มีระบบไหนที่ถูกแฮ็กไม่ได้ แต่ระหว่างสองตัวเลือกนี้มีความแตกต่างอย่างมาก ในโมเดลระบบนิเวศจะไม่มีจุดล้มเหลวจุดเดียวและการเจาะระบบนี้ก็มีต้นทุนสูงกว่าระบบแบบรวมศูนย์ แม้แต่การฟื้นฟูและรักษาข้อมูลที่หายไปก็ทำได้ถูกกว่าด้วย แต่ในระบบแบบรวมศูนย์นั้น ทุกคนจะได้รับผลกระทบเมื่อมีการเจาะเข้าไปได้ และส่วนมากการโจมตีจุดที่ล้มเหลวจุดเดียวก็มีต้นทุนน้อยกว่า&lt;/p&gt;
&lt;h2 style="text-align: justify; "&gt;กระแสโลกที่มีต่อการทำข้อมูลประชาชนดิจิทัลคืออะไร&lt;/h2&gt;
&lt;p style="text-align: justify; "&gt;แนวโน้มใหญ่ๆ ของโลกคือมีบางบริษัทที่ขายเทคโนโลยีไบโอเมทริกซ์ (การใช้ข้อมูลทางชีวภาพ เช่น ลักษณะทางกายภาพอย่างม่านตา ลายนิ้วมือ ดีเอ็นเอ ใบหน้าเพื่อตรวจสิทธิหรือแสดงตน) ที่โดยพื้นฐานแล้วเป็นเทคโนโลยีแบบควบคุมจากระยะไกลและไม่ต้องใช้ความยินยอมของเจ้าของข้อมูล เพราะเวลาที่มีการสแกนใบหน้าหรือม่านตาเพื่อยืนยันตัวตนนั้น เจ้าของข้อมูลอาจจะไม่รู้ ผู้ใช้งานอาจจะสแกนจากระยะไกลด้วยกล้องความคมชัดสูง และการเก็บข้อมูลอัตลักษณ์ก็เก็บได้ขณะที่เจ้าของนอนหลับหรือหมดสติ&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;เทคโนโลยีไบโอเมทริกซ์เป็นเทคโนโลยีการเฝ้าระวังที่ดีมากเมื่อรัฐบาลต้องการต่อกรกับอาชญากรรมหรือบังคับใช้กฎหมาย อย่างไรก็ตาม เทคโนโลยีการเฝ้าระวังไม่ใช่เทคโนโลยีข้อมูลประจำตัวที่ดี โชคร้ายที่บริษัทใหญ่ๆ ที่ขายระบบเฝ้าระวังได้เดินทางไปทั่วโลกและบอกกับรัฐบาลต่างๆ ว่าพวกคุณสามารถแก้ปัญหาเรื่องเอกสารข้อมู,และความมั่นคงได้พร้อมกันด้วยเทคโนโลยีเฝ้าระวังซึ่งมันไม่จริง&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;ถ้าคุณใช้เทคโนโลยีการเฝ้าระวังมาสร้างระบบข้อมูลประชาชน นั่นหมายความว่าคุณยิ่งไปสร้างความเสี่ยงด้านความมั่นคงเข้าไปอีก เพราะคุณสร้างสิ่งที่เรียกว่า ‘ไหน้ำผึ้ง’ หมายถึงว่ามีจุดๆ หนึ่งที่เก็บข้อมูลลายนิ้วมือ ใบหน้าหรือม่านตาของทุกๆ คน แล้วถ้าระบบนั้นมีจุดที่ล้มเหลวขึ้นมาเพียงจุดเดียว ลองนึกถึงระบบอินเทอร์เน็ตที่เก็บพาสเวิร์ดของทุกคนเอาไว้ในเซิฟเวอร์เดียวกัน มันก็เป็นความเสี่ยงนั้น&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;เทคโนโลยีไบโอเมทริกซ์นั้นควรใช้ในระบบแบบไม่รวมศูนย์ คุณสามารถเก็บข้อมูลทางชีวภาพจากประชาชนได้ แต่ควรเก็บมันเอาไว้ในชิปสมาร์ทการ์ดของแต่ละคน อย่างระบบสแกนใบหน้าของไอโฟนที่ไม่มีเซิฟเวอร์เก็บข้อมูลใบหน้า แต่อาศัยพื้นที่บนโทรศัพท์มือถือของผู้ใช้งานให้เก็บข้อมูลเหล่านั้นเอง&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;บางประเทศมีสมาร์ทการ์ดที่มีแม้กระทั่งเครื่องอ่านลายนิ้วมือบนบัตร ที่คุณต้องทำก็คือใส่สมาร์ทการ์ดเข้าไปในเครื่องอ่าน จากนั้นคุณก็วางนิ้วมือลงบนสมาร์ทการ์ดโดยไม่ต้องเอานิ้วไปแปะที่อุปกรณ์อื่นของรัฐหรือเอกชน นั่นเป็นวิธีการใช้งานไบโอเมทริกซ์ที่ถูกต้องเพราะคุณใช้โบโอเมทริกซ์แบบที่ไม่อิงอยู่กับการเฝ้าระวัง&lt;/p&gt;
&lt;h2 style="text-align: justify; "&gt;แปลว่าแนวโน้มระบบข้อมูลประชาชนของรัฐส่วนใหญ่อยู่กับฐานคิดการเฝ้าระวังใช่ไหม&lt;/h2&gt;
&lt;p style="text-align: justify; "&gt;ใช่แล้ว ความมั่นคงแห่งชาติและการเฝ้าระวังถูกจัดเป็นความสำคัญอันดับต้นๆ ซึ่งนั่นไม่ใช่แนวทางในการออกแบบระบบฐานข้อมูลประจำตัวประชาชนแบบ e-governance (ธรรมาภิบาลอิเล็คโทรนิกส์) การเฝ้าระวังนั้นสำคัญมากสำหรับสังคม แต่มันก็เหมือนเกลือในอาหาร คุณไม่สามารถกินอาหารได้โดยไม่มีเกลืออยู่ในนั้นนิดหน่อย คุณไม่สามารถมีประเทศที่ปลอดภัยหากไม่มีการเฝ้าระวัง แต่ถ้าคุณตัดสินใจตักเกลือห้าช้อนชาใส่ลงไปในอาหารเมื่อไหร่ อาหารก็เป็นพิษ เรื่องการเฝ้าระวังก็เช่นกัน มันจำเป็นในปริมาณน้อย แต่จะมีผลย้อนกลับหากมีมากเกินไป&lt;/p&gt;
&lt;h2 style="text-align: justify; "&gt;แล้วแนวทางที่ดีที่สุดควรเป็นแบบไหน&lt;/h2&gt;
&lt;p style="text-align: justify; "&gt;ควรใช้ระบบและมาตรฐานแบบเปิด (open source and open standard) เพราะคุณจะสามารถพิสูจน์และตรวจสอบระบบได้ ถ้าคุณตรวจสอบหรือพิสูจน์ไม่ได้ นั่นหมายความว่าคุณจะไม่รู้ว่ามันทำงานอย่างไร ส่วนต่อไปคือข้อมูลที่ถูกขอและส่งต่อในระบบนิเวศเมื่อทำธุรกรรมจะต้องมีจำนวนน้อยที่สุด&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;อีกสิ่งที่จำเป็นคือ คุณต้องมี Human in the Loop (ความสัมพันธ์หรือปฏิสัมพันธ์ของมนุษย์ในระบบนั้น) หมายความว่า คุณควรรู้ว่าในขั้นตอนนั้นๆ มีเจ้าหน้าที่รัฐหรือพนักงานเอกชนคนไหนเป็นคนรับผิดชอบ  และถ้ามีอะไรผิดพลาดคุณควรจะหาคนรับผิดรับชอบได้&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;ความรับผิดรับชอบนั้นแยกได้ว่า หนึ่ง เห็นตัวคนที่รับผิดชอบ สื่อมวลชนสามารถชี้นิ้วไปได้และบอกว่าคนนี้รับผิดชอบกับความผิดพลาดนั้น สอง การเป็นผู้จ่ายค่าปรับ ส่วนนี้สำคัญกับภาคเอกชน และสุดท้ายคือคนที่ต้องติดคุกหากมีเรื่องร้ายแรงเกิดขึ้น เช่นสิทธิมนุษยชนของบางคนได้รับผลกระทบ ดังนั้น เมื่อคุณจะออกแบบระบบฐานข้อมูลประจำตัว คุณต้องถามว่า ‘ใครเป็น Human in the loop’ นั่นเป็นกุญแจหลักของการออกแบบ&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;หลักการต่อไปของระบบข้อมูลประชาชนที่ดีคือต้องกระจายจากศูนย์กลาง ไม่ควรมีจุดล้มเหลวจุดใหญ่จุดเดียว การจัดการข้อมูลแบบระบบนิเวศนั้นดีกว่าการรวมศูนย์ นอกจากนั้นระบบควรจะรับมือและฟื้นตัวจากเหตุร้ายแรงที่สุดได้ ในระหว่างที่คุณออกแบบระบบก็ควรตั้งคำถามไปพลางว่า ถ้าระบบโดนแฮ็กจะทำอย่างไร หรือถ้าอาชญากรเอาระบบนี้ไปใช้ล่ะ คุณจำเป็นต้องคำนึงถึงความเป็นไปได้ที่ร้ายแรงที่สุดและต้องออกแบบระบบมารับมือมัน&lt;/p&gt;
&lt;h2 style="text-align: justify; "&gt;แล้วมองในแง่สังคม คนทั่วไป คุณกังวลเรื่องอะไรบ้าง&lt;/h2&gt;
&lt;p style="text-align: justify; "&gt;ปัญหาหลักตอนนี้คือ แนวคิดที่รายล้อมระบบข้อมูลประชาชนดิจิทัลคือการย้ำให้พลเมืองต้องโปร่งใสกับรัฐ พวกเขา (รัฐ) ต้องการให้พลเมืองส่งข้อมูลทุกอย่างให้กับรัฐ แต่ว่ารัฐไม่ให้ข้อมูลใดๆ กับพลเมือง ในระบบข้อมูลประชาชนที่ดี รัฐควรจะมีความโปร่งใสกับพลเมือง&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;ผมจะยกตัวอย่างให้ฟัง สมมติว่าผมเป็นพนักงานรัฐที่ทุจริต ผมจะเขียนลงไปในบันทึกว่าคุณมาหาผมที่ออฟฟิศในวันนี้ นี่คือเลขประจำตัวประชาชนของคุณที่ขอกู้เงิน หรือไม่ก็ได้รับเงินอุดหนุนจำนวน 2,000 บาท ผมก็สามารถเอาเงิน 2,000 บาทเข้ากระเป๋าผมแบบไม่มีใครพิสูจน์ได้ และคุณก็ปฏิเสธไม่ได้ด้วย เพราะว่าเลขประจำตัวของคุณอยู่ในบันทึกของรัฐ แต่ถ้าคุณใช้มันให้ดี เราจะมีเครื่องอ่านสมาร์ทการ์ดที่พลเมืองจะใส่บัตรและกดรหัส หลังจากคุณดึงบัตรออกเจ้าหน้าที่ก็จะใส่สมาร์ทการ์ดของเขาเข้าไปและกดรหัส นั่นจะทำให้มีบันทึกในระบบอิเล็กโทรนิกส์และถูกเซ็นโดยเจ้าหน้าที่รัฐและพลเมือง จะไม่มีใครปฏิเสธได้แล้วว่ามีการพบกันจริงๆ ในระบบข้อมูลประจำตัวที่ดีนั้น ทั้งคู่จะต้องแสดงตัวตน แต่ในระบบที่ไม่ดีจะมีแต่เจ้าหน้าที่รัฐที่ถามหาหลักฐานประจำตัวและคุณจะไม่มีการบันทึกว่าเกิดอะไรขึ้นบ้าง&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;ความเป็นส่วนตัวและการคุ้มครองนั้นควรมีสัดส่วนแปรผันกับอำนาจ ความโปร่งใสและการกำกับควบคุมควรมีสัดส่วนโดยตรงกับอำนาจ คนที่มีอำนาจหรือคนรวยต้องมีความโปร่งใสมากกว่าคนอื่นและมีความเป็นส่วนตัวน้อยกว่าคนอื่น คนที่ไม่มีอำนาจหรือคนเปราะบางควรจะมีความเป็นส่วนตัวมากขึ้น&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;ถ้าคุณดูนโยบายด้านฐานข้อมูลแบบเปิด (โอเพ่นดาต้า) หรือกฎหมายเสรีภาพด้านข้อมูลข่าวสารจะพบว่าข้อมูลส่วนบุคคลเป็นข้อยกเว้นในกฎหมายเหล่านั้น ข้อมูลรัฐที่ไม่เป็นส่วนตัวเท่านั้นที่สามารถถูกแบ่งปันกันได้ในโอเพ่นดาต้า แต่ถ้าคุณไปดูกฎหมายความเป็นส่วนตัวก็จะพบว่ามีข้อยกเว้นในเรื่องประโยชน์ต่อสาธารณะ นั่นหมายความว่า ถ้าคุณเป็นเจ้าหน้าที่รัฐหรือนักการเมืองคนสำคัญ สิ่งที่คุณคุยในห้องนอนก็อาจสำคัญกับประเทศทั้งประเทศ นั่นหมายความว่าคุณไม่มีความเป็นส่วนตัวในการพูดคุยเรื่องลับ&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;ความเป็นส่วนตัวนั้นเป็นข้อยกเว้น แต่ผลประโยชน์สาธารณะมันเป็นข้อยกเว้นของข้อยกเว้นอีกที สมมติว่านายกฯ มีปัญหาสุขภาพร้ายแรงที่ทำให้เขาหรือเธอไม่เหมาะที่จะดำรงตำแหน่งอีกต่อไป ข้อมูลส่วนตัวนั้นก็เป็นข้อยกเว้นของข้อยกเว้น ถ้าการได้รู้ว่านายกฯ ป่วยหนักเป็นประโยชน์ต่อสาธารณะมันก็ควรถูกเปิดเผย การลองทำบททดสอบด้านผลประโยชน์สาธารณะน่าจะช่วยเรื่องการจัดการแกนสมมาตรเชิงอำนาจระหว่างกฎหมายสองชุด&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;ในการช่วยเหลือคนจน คุณควรมีกฎหมายความโปร่งใสและนโยบายโอเพ่นดาต้าที่ดี เพื่อคุ้มครองคนจนและคนเปราะบาง คุณต้องมีกฎหมายความเป็นส่วนตัว และถ้าคุณมีการทดสอบเรื่องผลประโยชน์สาธารณะในกฎหมายทั้งสองชุด กฎหมายเหล่านั้นก็จะไม่ถูกใช้ขูดรีดคนจน&lt;/p&gt;
&lt;h2 style="text-align: justify; "&gt;ความมั่นคงจะอยู่ร่วมกับเสรีภาพและความเป็นส่วนตัวได้อย่างไร&lt;/h2&gt;
&lt;p style="text-align: justify; "&gt;กฎหมายข้อมูลประจำตัวดิจิทัลจะต้องมีสอดรับกับกฎหมายความเป็นส่วนตัวและนโยบายโอเพ่นดาต้า แต่ปัญหาก็คือกฎหมายความเป็นส่วนตัวยังเป็นเรื่องใหม่มากๆ ในภูมิภาคนี้ ไทยเพิ่งผ่าน พ.ร.บ. คุ้มครองข้อมูลส่วนบุคคล ที่อินเดียยังไม่มีในระดับชาติ ก็ยังคงมีงานที่ต้องทำอยู่ ศาลต้องทำหน้าที่หาคำนิยาม หน่วยงานกำกับดูแลต้องมีแนวทางกำกับที่จำเพาะมากๆ ภาคอุตสาหกรรมต้องมีแนวทางกำกับตัวเองและแนวปฏิบัติที่ดีที่สุด ภาคประชาสังคมเองก็ต้องช่วยภาคส่วนอื่นๆ ด้วยการถามคำถามหนักๆ&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;มันต้องใช้เวลา อย่างยุโรปก็มีเส้นทางการมีกฎหมายคุ้มครองข้อมูลยาวนานถึง 35 ปี นั่นเป็นเหตุผลที่ยุโรปมีการคุ้มครองที่ดีกว่า ในภูมิภาคของพวกเราก็จะใช้เวลาต่อสู้ถึง 35 ปีเช่นกัน ดังนั้น ประชาสังคมจะต้องเตรียมตัวในการต่อสู้เป็นเวลา 35 ปี และหลังจากนั้น ลูกหรือลูกของลูกเราจะเห็นระบบนิเวศข้อมูลประชาชนที่ปลอดภัยกว่านี้&lt;/p&gt;
&lt;h2 style="text-align: justify; "&gt;รัฐบาลควรทำอะไรบ้าง&lt;/h2&gt;
&lt;p style="text-align: justify; "&gt;การผ่านกฎหมายอย่างเดียวนั้นไม่เพียงพอ ที่ (รัฐบาล) ทำในไทยคือแค่ผ่านกฎหมาย ตอนนี้คุณต้องสร้างคณะกรรมการที่เป็นอิสระ มีงบประมาณมากพอที่จะจ้างวิศวกรและนักกฎมายที่ดีที่สุด คณะกรรมการควรเริ่มบังคับใช้ข้อบังคับอย่างช้าๆ ศาลเองก็ควรพัฒนาองค์ความรู้ ผู้พิพากษาจะต้องเรียนรู้ว่าเกิดอะไรขึ้นบ้างในประเทศอื่นๆ ระบบกฎหมายต้องเตรียมพร้อมกับข้อกังวลใหม่ๆ&lt;/p&gt;
&lt;h2 style="text-align: justify; "&gt;เทคโนโลยีช่วยได้แค่ไหน&lt;/h2&gt;
&lt;p style="text-align: justify; "&gt;เทคโนโลยีเป็นแค่ส่วนหนึ่งของการแก้ปัญหา คุณยังต้องกังวลเรื่องกฎหมายและบรรทัดฐานทางสังคม อะไรที่คนธรรมดาเขาทำกัน ถ้าทุกคนยังคงยินดีกับการส่งสำเนาบัตรประชาชน คุณก็ต้องไปเปลี่ยนมัน รัฐบาลมีประสบการณ์มากกับการยกระดับบรรทัดฐานทางสังคม&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;รัฐบาลต้องใช้อำนาจที่มีในการเปลี่ยนแนวปฏิบัติ เรื่องแนวทางการคุ้มครองความเป็นส่วนตัวก็เหมือนการสูบบุหรี่ พวกนักสูบส่วนมากก็รู้อยู่แล้วว่าการสูบบุหรี่นั้นทำให้เกิดมะเร็งและปัญหาอื่นๆ แต่ก็จะยังสูบต่อไปจนกว่าหมอจะบอกว่าเป็นมะเร็ง รัฐบาลก็ต้องทำให้พลเมืองเกิดความกลัวในสิ่งที่จะเกิดขึ้นเพื่อให้ประชาชนเลิกไม่เอาใจใส่เรื่องข้อมูลส่วนบุคคล&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;ส่วนสุดท้ายคือตลาด บรรษัทก็ต้องเริ่มสร้างนวัตกรรม เช่น ธนาคารควรออกมาพูดได้ว่าระบบของเราดีกว่าที่อื่น เราไม่ใช้ไบโอเมทริกซ์ เป็นต้น กฎหมายต้องทำให้เกิดการแข่งขันระหว่างบรรษัทในเรื่องความปลอดภัย ความเป็นส่วนตัว เมื่อเราเห็นบรรทัดฐาน กฎหมาย เทคโนโลยี และการแข่งขันทางเทคโนโลยี วันนั้นเราจะเริ่มเห็นทางออก ผมถึงบอกว่ามันจะใช้เวลา 30-40 ปี ไม่ก็นานกว่านั้น&lt;/p&gt;
&lt;h2 style="text-align: justify; "&gt;ระบบข้อมูลประจำตัวดิจิทัลที่ดีเกี่ยวอะไรกับประเทศเป็นประชาธิปไตยไหม&lt;/h2&gt;
&lt;p style="text-align: justify; "&gt;ผู้คนถามคำถามยากๆ หลายคำถามในระบอบประชาธิปไตย และนั่นเป็นประโยชน์ แต่สิ่งที่เราต้องการจริงๆ คือประชาธิปไตยที่ปกครองโดยรัฐธรรมนูญ (Constitutional democracy) เพราะคุณไม่สามารถเดินไปถามคนทุกคนเพื่อหามติต่อคำถามทางเทคนิค&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;คุณต้องมีการอภิปรายสาธารณะที่โปร่งใสเยอะๆ แต่คุณไม่สามารถตัดสินใจกันด้วยการโหวต การไปถามว่า ‘มีกี่คนอยากใช้สแกนลายนิ้วมือ มีกี่คนอยากใช้สแกนใบหน้า’ ไม่ใช่วิธีออกแบบระบบข้อมูลประจำตัวดิจิทัล มันจะต้องวางอยู่บนหลักของรัฐธรรมนูญบางประการเช่นความถูกต้องตามกฎหมาย ความจำเป็น ความได้สัดส่วน หลังจากนั้นคุณจะต้องมีแนวทางที่เสนอโดยวิศวกรและนักกฎหมาย จากนั้นจึงให้มีการถกเถียงและอภิปราย&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;คุณตัดสินโดยอิงเสียงข้างมากไม่ได้เพียงเพราะคนส่วนมากบอกว่าพวกเขารู้สึกว่าการสแกนใบหน้ามันง่ายมาก คุณก็ไม่สามารถบอกว่าจะนำการสแกนใบหน้าไปใช้กับทุกอย่างเพียงเพราะมันปลดล็อกไอโฟนง่ายดี เพราะในวันพรุ่งนี้เทคโนโลยีเดียวกันอาจถูกนำไปใช้เพื่อสลายการชุมนุมก็ได้ แม้ทุกคนจะรักหลงการสแกนใบหน้าในประชาธิปไตยของคุณ แต่รัฐธรรมนูญยังคงต้องปฏิเสธมันและบอกว่ามันไม่จำเป็น ไม่ได้สัดส่วน มันควรถูกแบน หรือไม่ก็ใช้ในวัตถุประสงค์ที่จำเพาะ&lt;/p&gt;
&lt;h2 style="text-align: justify; "&gt;ช่วยอธิบายว่าทำไมการเฝ้าระวังอาจเป็นการทำให้คนหลบเข้าไปอยู่ในมุมมืดมากขึ้น&lt;/h2&gt;
&lt;p style="text-align: justify; "&gt;มันเป็นผลที่เกิดขึ้นโดยไม่ตั้งใจ อย่างถ้าคุณไปบล็อกเนื้อหาที่คนชอบมากๆ คนก็อาจจะหันไปใช้ TOR หรือ VPN (วิธีการเข้าถึงเนื้อหาที่ถูกบล็อก) ซึ่งนั่นไม่ใช่ความตั้งใจของคุณ ถ้าคุณไม่พัฒนาระบบข้อมูลประชาชนที่ดี ประชาชนก็จะเริ่มทำตัวเหมือนอาชญากร แต่พวกเขาไม่ใช่อาชญากร เพียงแค่เขาไม่ชอบการออกแบบระบบเท่านั้น คุณไม่สามารถบังคับให้คนทำพฤติกรรมแบบนั้นหรือแบบนี้ได้ ดังนั้นการเป็นประชาธิปไตยจึงสำคัญ ในระหว่างที่คุณพัฒนาเทคโนโลยีคุณก็ควรถามพวกเขา (ผู้ใช้) ไปด้วยว่ามันใช้ได้หรือไม่ ทำให้เกิดการอภิปรายขึ้น&lt;/p&gt;
        &lt;p&gt;
        For more details visit &lt;a href='https://cis-india.org/internet-governance/news/e2de2de01e41e1ae1ae23e30e1ae1ae02e49e2de21e39e25e1be23e30e0ae32e0ae19e14e34e08e34e17e31e25-e04e38e22e01e31e1ae1ce39e49e40e0ae35e48e22e27e0ae32e0de2be32e41e19e27e17e32e07e40e2be21e32e30e2ae21'&gt;https://cis-india.org/internet-governance/news/e2de2de01e41e1ae1ae23e30e1ae1ae02e49e2de21e39e25e1be23e30e0ae32e0ae19e14e34e08e34e17e31e25-e04e38e22e01e31e1ae1ce39e49e40e0ae35e48e22e27e0ae32e0de2be32e41e19e27e17e32e07e40e2be21e32e30e2ae21&lt;/a&gt;
        &lt;/p&gt;
    </description>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Admin</dc:creator>
    <dc:rights></dc:rights>

    
        <dc:subject>Internet Governance</dc:subject>
    

   <dc:date>2019-07-21T14:32:25Z</dc:date>
   <dc:type>News Item</dc:type>
   </item>


    <item rdf:about="https://cis-india.org/internet-governance/news/bis-litd-17-meeting">
    <title>BIS LITD 17 meeting</title>
    <link>https://cis-india.org/internet-governance/news/bis-litd-17-meeting</link>
    <description>
        &lt;b&gt;On July 3, 2019, Gurshabad Grover attended the sixteenth meeting of the Information Systems Security and Biometrics Section Committee (LITD17) at the Bureau of Indian Standards (BIS) in New Delhi.&lt;/b&gt;
        &lt;p style="text-align: justify; "&gt;In a previous meeting, a panel was formed to review two biometric standards: ISO/ IEC 24745 'Security Techniques - Biometric Information Protection' (2011), and ISO/IEC 19792 'Security techniques - Security evaluation of biometrics' (2009). Elonnai Hickok, Karan Saini and Gurshabad Grover had reviewed the documents and sent comments to BIS in December 2018 and January 2019 respectively. The Centre for Internet &amp;amp; Society (CIS) had also shared a document that compared the security guidelines in the standards to the provisions of the draft data protection bill.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;The committee discussed whether the aforementioned standards should be adopted as Indian standards by BIS. A decision will be taken on the matter after future discussions that CIS will participate in.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;Members updated the committee on their participation at the ISO/IEC. Iupdated the committee on the progress of the study period on the impact of machine learning on privacy, which I am a co-rapporteur for in the identity management and privacy group working group at ISO/IEC IT Security Techniques committee. We also planned our participation at the next ISO/IEC SC 27 meeting, which is in October.&lt;/p&gt;
        &lt;p&gt;
        For more details visit &lt;a href='https://cis-india.org/internet-governance/news/bis-litd-17-meeting'&gt;https://cis-india.org/internet-governance/news/bis-litd-17-meeting&lt;/a&gt;
        &lt;/p&gt;
    </description>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Admin</dc:creator>
    <dc:rights></dc:rights>

    
        <dc:subject>Internet Governance</dc:subject>
    
    
        <dc:subject>Privacy</dc:subject>
    

   <dc:date>2019-07-21T13:58:29Z</dc:date>
   <dc:type>News Item</dc:type>
   </item>


    <item rdf:about="https://cis-india.org/internet-governance/blog/the-wire-mira-swaminathan-and-shweta-reddy-july-20-2019-old-isnt-always-gold-face-app-and-its-privacy-policies">
    <title>Old Isn't Always Gold: FaceApp and Its Privacy Policies</title>
    <link>https://cis-india.org/internet-governance/blog/the-wire-mira-swaminathan-and-shweta-reddy-july-20-2019-old-isnt-always-gold-face-app-and-its-privacy-policies</link>
    <description>
        &lt;b&gt;Leaving aside the Red Scare for a moment, FaceApp's own rebuttal of privacy worries are highly problematic in nature.&lt;/b&gt;
        
&lt;p style="text-align: justify;"&gt;The article by Mira Swaminathan and Shweta Reddy was published in &lt;a class="external-link" href="https://thewire.in/tech/old-isnt-always-gold-faceapp-privacy-data-policies"&gt;the Wire&lt;/a&gt; on July 20, 2019.&lt;/p&gt;
&lt;hr style="text-align: justify;" /&gt;
&lt;p style="text-align: justify;"&gt;If you, much like a large number of celebrities, have spammed your followers with the images of ‘how you may look in your old age’,&amp;nbsp;&lt;a href="https://yourstory.com/2019/07/faceapp-photo-filter-virat-kohli-arjun-kapoor-jonas-brothers"&gt;you have successfully been a part of the FaceApp fad &lt;/a&gt;that has gone viral this week.&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;The problem with the FaceApp trend isn’t that it has penetrated most social circles, but rather, the fact that it has gone viral with minimal scrutiny&amp;nbsp;&lt;a href="https://www.huffingtonpost.in/entry/faceapp-privacy-issues_n_5d2f3ba7e4b02fd71dde0bc2"&gt;of its vaguely worded privacy policy guidelines.&lt;/a&gt; We click ‘I agree’ without understanding that our so called ‘explicit consent’ gives the app permission to use our likeness, name and username, for any purpose, without our knowledge and consent,&amp;nbsp;&lt;a href="https://edition.cnn.com/2019/07/17/tech/faceapp-privacy-concerns/index.html"&gt;even after we delete the app&lt;/a&gt;. FaceApp&amp;nbsp;&lt;a href="https://www.hindustantimes.com/tech/faceapp-is-trending-again-all-you-need-to-know-about-the-viral-ai-photo-editing-app/story-5VQurpSMSogKwiqX03GbNK.html"&gt;is currently the most downloaded free app on the Apple Store&lt;/a&gt; due to a large number of people downloading the app to ‘turn their old selfies grey’.&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;There are many things that the app could do. It could process the images on your device,&amp;nbsp;&lt;a href="https://www.forbes.com/sites/thomasbrewster/2019/07/17/faceapp-is-the-russian-face-aging-app-a-danger-to-your-privacy/#3a8cbcb32755"&gt;rather than take submitted photos to an outside server&lt;/a&gt;.&amp;nbsp; It could also upload your photos to the cloud without making it clear to you that processing is not taking place locally on their device.&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;Further, if you have an Apple product, the iOS app appears to be overriding your settings even if you have denied access to their camera roll. People have reported that they could still select and upload a photo despite the app not having permission to access their photos.&amp;nbsp;&lt;a href="https://techcrunch.com/2019/07/16/ai-photo-editor-faceapp-goes-viral-again-on-ios-raises-questions-about-photo-library-access-and-clo/"&gt;This ‘allowed behaviour’ in iOS&lt;/a&gt; is quite concerning, especially when we have apps with loosely worded terms and conditions.&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;FaceApp responded&amp;nbsp;&lt;a href="https://techcrunch.com/2019/07/17/faceapp-responds-to-privacy-concerns/"&gt;to these privacy concerns by issuing a statement with a list of defences.&lt;/a&gt; The statement clarified that FaceApp performs most of the photo processing in the cloud, that they only upload a photo selected by a user for editing and also confirmed that they never transfer any other images from the phone to the cloud. However, even in their clarificatory statement, they stated that they ‘might’ store an uploaded photo in the cloud and explained that the main reason for that is “performance and traffic”. They also stated that ‘most’ images are deleted from their servers within 48 hours from the upload date.&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;Further, the statement ends by saying that “all pictures from the gallery are uploaded to our servers after a user grants access to the photos”. This is highly problematic.&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;We have explained the concerns arising out of the privacy policy with reference to the global gold standards: the OECD Guidelines on the Protection of Privacy and Transborder Flows of Personal Data, APEC Privacy Framework, Report of the Group of Experts on Privacy chaired by Justice A.P. Shah and the General Data Protection Regulation in the table below:&lt;/p&gt;
&lt;table&gt;
&lt;tbody&gt;
&lt;tr&gt;
&lt;td&gt;Privacy Domain&lt;/td&gt;
&lt;td&gt;&lt;a href="https://www.oecd.org/internet/ieconomy/oecdguidelinesontheprotectionofprivacyandtransborderflowsofpersonaldata.htm"&gt;OECD Guidelines &lt;/a&gt;&lt;/td&gt;
&lt;td&gt;&lt;a href="https://www.apec.org/Publications/2005/12/APEC-Privacy-Framework"&gt;APEC Privacy Framework &lt;/a&gt;&lt;/td&gt;
&lt;td&gt;&lt;a href="http://planningcommission.nic.in/reports/genrep/rep_privacy.pdf"&gt;Report of the Group of Experts on Privacy&lt;/a&gt;&lt;/td&gt;
&lt;td&gt;&lt;a href="https://eur-lex.europa.eu/legal-content/EN/TXT/?qid=1528874672298&amp;amp;uri=CELEX%3A32016R0679"&gt;General Data Protection Regulation&lt;/a&gt;&lt;/td&gt;
&lt;td&gt;&lt;a href="https://faceapp.com/privacy"&gt;FaceApp Privacy Policy&lt;/a&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Transparency&lt;/td&gt;
&lt;td&gt;There should be a general policy of openness about developments, practices and policies with respect to personal data.&lt;/td&gt;
&lt;td&gt;Personal information controllers should provide clear and easily accessible statements about their practices and policies with respect to personal data.&lt;/td&gt;
&lt;td&gt;A data controller shall give&amp;nbsp;a&amp;nbsp;notice that is understood simply of its information practices to all individuals, in clear and concise language, before any personal information is collected from them.&lt;/td&gt;
&lt;td&gt;Transparency:
&lt;p&gt;&amp;nbsp;&lt;/p&gt;
&lt;p&gt;The controller shall take appropriate measures to provide information relating to processing to the data subject in a concise, transparent, intelligible and easily accessible form, using clear and plain language.&lt;/p&gt;
&lt;p&gt;Article 29 working party guidelines on Transparency:&lt;/p&gt;
&lt;p&gt;The information should be concrete and definitive, it should not be phrased in abstract or ambivalent terms or leave room for different interpretations.&lt;/p&gt;
&lt;p&gt;Example:&lt;/p&gt;
&lt;p&gt;“We may use your personal data to develop new services” (as it is unclear what the services are or how the data will help develop them);&lt;/p&gt;
&lt;/td&gt;
&lt;td&gt;Information we collect
&lt;p&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;“When you visit the Service, we may use cookies and similar technologies”……. provide features to you.&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;We may ask advertisers or other partners to serve ads or services to your devices, which may use cookies or similar technologies placed by us or the third party.&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;“We may also collect similar information from emails sent to our Users..”&lt;/p&gt;
&lt;p&gt;Sharing your information&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;“We may share User Content and your information with businesses…”&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;“We also may share your information as well as information from tools like cookies, log files..”&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;“We may also combine your information with other information..”&lt;/p&gt;
&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td style="text-align: justify;" colspan="6"&gt;A simple reading of the guidelines in comparison with the privacy policy of FaceApp can help us understand that the terms used by the latter are ambiguous and vague. The possibility of a ‘may not’ can have a huge impact on the privacy concerns of the user.
&lt;p&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;The entire point of ‘transparency’ in a privacy policy is for the user to understand the extent of processing undertaken by the organisation and then have the choice to provide consent. Vague phrases do not adequately provide a clear indication of the extent of processing of personal data of the individual.&lt;/p&gt;
&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Privacy Domain&lt;/td&gt;
&lt;td&gt;&lt;a href="https://www.oecd.org/internet/ieconomy/oecdguidelinesontheprotectionofprivacyandtransborderflowsofpersonaldata.htm"&gt;OECD Guidelines &lt;/a&gt;&lt;/td&gt;
&lt;td&gt;&lt;a href="https://www.apec.org/Publications/2005/12/APEC-Privacy-Framework"&gt;APEC Privacy Framework &lt;/a&gt;&lt;/td&gt;
&lt;td&gt;&lt;a href="http://planningcommission.nic.in/reports/genrep/rep_privacy.pdf"&gt;Report of the Group of Experts on Privacy&lt;/a&gt;&lt;/td&gt;
&lt;td&gt;&lt;a href="https://eur-lex.europa.eu/legal-content/EN/TXT/?qid=1528874672298&amp;amp;uri=CELEX%3A32016R0679"&gt;General Data Protection Regulation&lt;/a&gt;&lt;/td&gt;
&lt;td&gt;&lt;a href="https://faceapp.com/privacy"&gt;FaceApp Privacy Policy&lt;/a&gt;&lt;/td&gt;
&lt;/tr&gt;
&lt;tr&gt;
&lt;td&gt;Security Safeguards&lt;/td&gt;
&lt;td&gt;Personal data should be protected by reasonable security safeguards against such risks as loss or unauthorised access, destruction, use, modification or disclosure of data&lt;/td&gt;
&lt;td style="text-align: left;"&gt;Personal information controllers should protect personal information that they hold with appropriate safeguards against risks, such as loss or unauthorised access to personal information or unauthorised destruction, use, modification or disclosure of information or other misuses.&lt;/td&gt;
&lt;td style="text-align: justify;"&gt;A data controller shall secure personal information that they have either collected or have in their custody by reasonable security safeguards against loss, unauthorised access, destruction, use, processing, storage, modification, deanonymization, unauthorised disclosure or other reasonably foreseeable risks&lt;/td&gt;
&lt;td&gt;The controller and processor shall implement appropriate technical and organisational measures to ensure a level of security appropriate to the risk.&lt;/td&gt;
&lt;td&gt;How we store your information
&lt;p&gt;&amp;nbsp;&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;“We use commercially reasonable safeguards to help keep the information collected through the Service secure and take reasonable steps… However, FaceApp cannot ensure the security of any information you transmit to FaceApp or guarantee that information on the Service may not be accessed, disclosed, altered, or destroyed.”&lt;/p&gt;
&lt;/td&gt;
&lt;/tr&gt;
&lt;/tbody&gt;
&lt;/table&gt;
&lt;p style="text-align: justify;"&gt;The obligation of implementing reasonable security measures to prevent unauthorised access and misuse of personal data is placed on the organisations processing such data. FaceApp’s privacy policy assures that reasonable security measures according to commercially accepted standards have been implemented. Despite such assurances, FaceApp’s waiver of the liability by stating that it cannot ensure the security of the information against it being accessed, disclosed, altered or destroyed itself says that the policy is faltered in nature.&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;The privacy concerns and the issue of transparency (or the lack thereof) in FaceApp are not isolated. After all, as a&amp;nbsp;&lt;a href="https://www.buzzfeednews.com/article/daveyalba/what-happens-when-you-upload-faceapp-photos" rel="noopener" target="_blank"&gt;&lt;em&gt;Buzzfeed&lt;/em&gt; analysis of the app noted&lt;/a&gt;, while there appeared to be no data going back to Russia, this could change at any time due to its overly broad privacy policy.&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;The business model of most mobile applications being developed currently relies heavily on personal data collection of the user. The users’ awareness regarding the type of information accessed based on the permissions granted to the mobile application is questionable.&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;In May 2018,&amp;nbsp;&lt;a href="https://www.symantec.com/blogs/threat-intelligence/mobile-privacy-apps"&gt;Symantec tested&lt;/a&gt; the top 100 free Android and iOS apps with the primary aim of identifying cases where the apps were requesting ‘excessive’ access to information of the user in relation to the functions being performed. The study identified that 89% of Android apps and 39% of the iOS app request for what can be classified as ‘risky’ permissions, which the study defines as permissions where the app requests data or resources which involve the user’s private information, or, could potentially affect the user’s locally stored data or the operation of other apps.&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;Requesting risky permissions may not on its own be objectionable, provided clear and transparent information regarding the processing, which takes place upon granting permission, is provided to the individuals in the form of a clear and concise privacy notice. The study concluded that 4% of the Android apps and 3% of the iOS apps seeking risky permissions didn’t even have a privacy policy.&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;The lack of clarity with respect to potentially sensitive user data being siphoned off by mobile applications became even more apparent with the case of a&amp;nbsp;&lt;a href="https://www.huffingtonpost.in/entry/fintech-apps-privacy-snooping-credit-vidya_in_5d1cbc34e4b082e55373370a?guccounter=1"&gt;Hyderabad based fintech company&lt;/a&gt; that gained access to sensitive user data by embedding a backdoor inside popular apps.&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;In the case of the Hyderabad-based fintech company, the user data which was affected included GPS locations, business SMS text messages from e-commerce websites and banks, personal contacts, etc. This data was used to power the company’s self-learning algorithms which helped organisations determine the creditworthiness of loan applicants. It is pertinent to note that even when apps have privacy policies,&amp;nbsp;&lt;a href="http://snip.ly/2dfaj0#http://www.cuts-ccier.org/cdpp/pdf/survey_analysis-dataprivacy.pdf"&gt;users can still find it difficult to navigate&lt;/a&gt; through the long content-heavy documents.&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;The&amp;nbsp;&lt;em&gt;New York Times&lt;/em&gt;, as part of its&amp;nbsp;&lt;a href="https://www.nytimes.com/interactive/2019/06/12/opinion/facebook-google-privacy-policies.html"&gt;Privacy Project&lt;/a&gt;,&amp;nbsp;analysed the length and readability of privacy policies of around 150 popular websites and apps. It was concluded that the vast majority of the privacy policies that were analysed exceeded the college reading level. Usage of vague language like “adequate performance” and “legitimate interest” and wide interpretation of such phrases allows organisations to use data in extensive ways while providing limited clarity on the processing activity to the individuals.&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;The Data Protection Authorities operating under the General Data Protection Regulation are paying close attention to openness and transparency of processing activities by organisations.&amp;nbsp;&lt;a href="https://www.cnil.fr/en/cnils-restricted-committee-imposes-financial-penalty-50-million-euros-against-google-llc"&gt;The French Data Protection Authority&lt;/a&gt; fined Google for violating their obligations of transparency and information. The UK’s Information Commissioner’s office issued an&amp;nbsp;&lt;a href="https://ico.org.uk/media/action-weve-taken/enforcement-notices/2260123/aggregate-iq-en-20181024.pdf"&gt;enforcement notice&lt;/a&gt; to a Canadian data analytics firm for failing to provide information in a transparent manner to the data subject.&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;Thus, in the age of digital transformation, the unwelcome panic caused by FaceApp should be channelled towards a broader discussion on the information paradox currently existing between individuals and organisations. Organisations need to stop viewing ambiguous and opaque privacy policies as a get-out-of-jail-free card. On the contrary, a clear and concise privacy policy outlining the details related to processing activity in simple language can go a long way in gaining consumer trust.&lt;/p&gt;
&lt;p style="text-align: justify;"&gt;The next time an “AI-based Selfie App” goes viral, let’s take a step back and analyse how it makes use of user-provided data and information both over and under the hood, since if data is the new gold, we can easily say that we’re in the midst of a gold rush.&lt;/p&gt;

        &lt;p&gt;
        For more details visit &lt;a href='https://cis-india.org/internet-governance/blog/the-wire-mira-swaminathan-and-shweta-reddy-july-20-2019-old-isnt-always-gold-face-app-and-its-privacy-policies'&gt;https://cis-india.org/internet-governance/blog/the-wire-mira-swaminathan-and-shweta-reddy-july-20-2019-old-isnt-always-gold-face-app-and-its-privacy-policies&lt;/a&gt;
        &lt;/p&gt;
    </description>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Mira Swaminathan and Shweta Reddy</dc:creator>
    <dc:rights></dc:rights>

    
        <dc:subject>Internet Governance</dc:subject>
    
    
        <dc:subject>Privacy</dc:subject>
    

   <dc:date>2019-08-09T10:12:11Z</dc:date>
   <dc:type>Blog Entry</dc:type>
   </item>


    <item rdf:about="https://cis-india.org/internet-governance/news/roundtable-discussion-on-201cthe-future-of-ai-policy-in-india201d-icrier">
    <title>Roundtable Discussion on “The Future of AI Policy in India” @ ICRIER</title>
    <link>https://cis-india.org/internet-governance/news/roundtable-discussion-on-201cthe-future-of-ai-policy-in-india201d-icrier</link>
    <description>
        &lt;b&gt;Radhika Radhakrishnan, attended a Roundtable Discussion on “The Future of AI Policy in India” organized by the Indian Council for Research on International Economic Relations (ICRIER) in New Delhi on July 1, 2019,  to arrive at actionable recommendations for promotion of AI in India.&lt;/b&gt;
        &lt;p style="text-align: justify; "&gt;Radhika's inputs primarily focused on - capacity and skilling for AI adoption in India, sectoral opportunities for the adoption of AI, regulation of explanations for AI, fairness and bias in AI models, and actionable recommendations for government priorites for AI policies in India.&lt;/p&gt;
&lt;h3 style="text-align: justify; "&gt;Concept Note&lt;/h3&gt;
&lt;p style="text-align: justify; "&gt;India’s Artificial Intelligence moment is truly here and now. At a time when a diverse range of applications based on AI are being developed, pushing its frontier further into uncharted realms of business and society, Indian policy makers are contemplating not just AI’s potential for growth and social transformation, but also its proclivity to create divides and inequality. Our study attempts to understand the impacts of AI and trace the pathways to realizing it.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;AI’s transformational potential stems from its ability to lend itself to a diverse range of applications across a range of sectors. One can witness AI based applications in traditional spheres of manufacturing, which are transforming quality control, production lines, and supply chain management, and in services, which are creating personalized product offerings and high-quality customer engagement. AI applications are also common in sectors such as agriculture that have taken a back seat in technological innovations in the post-industrial world. AI also demonstrates potential for impacting developmental challenges by responding to societies’ immediate demand for healthcare, education and expanding access to finance and banking.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;The consequences of AI diffusion stem from AI’s pervasiveness across society, its ability to trigger innovation, and its tendencies to undergo transformation and evolution. These are typical characteristics of a class of technologies that can be found across history, the emergence and diffusion of which have enabled the wealth of nations. These are called General Purpose Technologies (GPT). Technologies such as steam engine, electricity, computers, semi-conductors, and more recently the Internet, can all be conceived as belonging to the GPT class of technologies. Our study is based on the understanding that the implications of AI can be best understood by viewing AI as a GPT.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;Historically, the economic impacts of GPTs have not been immediate but follow after its diffusion across the economy, i.e. over a period of time. There are two reasons that explain this phenomenon: firstly, in early phases of technology diffusion, an economy diverts part of its resources from productive activities to costly activities aimed at enabling the GPT. For instance, organizations adopting computers must also invest in training employees or hire computer scientists, re-arrange production activities or organizational structures to accommodate computer driven work-flows, all of which are costly economic activities. Secondly, it is only after the GPT is diffused and widely used in the economy that the statistics measuring GDP start counting and fully measuring the GPT.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;Empirical research on GPTs such as AI, including ours, means confronting the challenge of measurement. Estimates on the economic impact of AI are bound to be imprecise because data on AI’s adoption is not available or adequately reflected in the data used to compute economic growth, at least not yet. Measuring the economic impact of AI is also difficult because of the magnitude of indirect effects on productivity that GPTs trigger. It is not therefore uncommon that studies on GPTs, while attempting to estimate their economic impacts, also engage in in-depth case studies and historical analysis of its impacts.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;Our findings show unambiguous and positive impacts of AI on firm level productivity across sectors, although there is variation in the magnitude of positive impacts across sectors. We complement our findings with case studies that cover different firms that are developing AI based applications across a range of sectors to understand the underlying firm-level capabilities that drive innovations in AI based applications. Our study leads us towards high-level policy challenges facing organizations, civil society and government, and which when addressed enable the full realization of economic growth triggered by AI.&lt;/p&gt;
&lt;p style="text-align: justify; "&gt;However, our conclusions are a step-away from actionable policy recommendations. Given your experience with and within India’s AI based ecosystem, we invite you to deliberate and recommend insights and strategies that can help us arrive at concrete and practicable policy recommendations towards achieving a growth and welfare enhancing AI-based ecosystem in India.&lt;/p&gt;
&lt;p&gt;&lt;b&gt;Proposed Questions for Deliberation&lt;/b&gt;&lt;/p&gt;
&lt;ul&gt;
&lt;li&gt;&lt;span&gt;In which sectors do we observe an immediate opportunity for the adoption of AI? What could be the nature of these applications?&lt;/span&gt;&lt;/li&gt;
&lt;li&gt;In which areas of AI development and application is there an immediate opportunity for governments, industry and academia to collaborate?&lt;/li&gt;
&lt;li&gt;What should be the Government’s top five priorities in the next one year to catalyse the growth of AI in India?&lt;/li&gt;
&lt;li&gt;How and what agencies of the Government should be involved in implementation of India’s National AI mission?&lt;/li&gt;
&lt;li&gt;What aspects of the Government’s capacity requires enhancement to adapt to challenges of a growing Indian AI based ecosystem?&lt;/li&gt;
&lt;li&gt;What measures can the Government take to regulate for AI safety and ethical use of AI?&lt;/li&gt;
&lt;li&gt;What are the policy measures that the Government can undertake to safeguard against the consequences of AI based inequality?&lt;/li&gt;
&lt;/ul&gt;
        &lt;p&gt;
        For more details visit &lt;a href='https://cis-india.org/internet-governance/news/roundtable-discussion-on-201cthe-future-of-ai-policy-in-india201d-icrier'&gt;https://cis-india.org/internet-governance/news/roundtable-discussion-on-201cthe-future-of-ai-policy-in-india201d-icrier&lt;/a&gt;
        &lt;/p&gt;
    </description>
    <dc:publisher>No publisher</dc:publisher>
    <dc:creator>Admin</dc:creator>
    <dc:rights></dc:rights>

    
        <dc:subject>Internet Governance</dc:subject>
    
    
        <dc:subject>Artificial Intelligence</dc:subject>
    

   <dc:date>2019-07-10T01:46:36Z</dc:date>
   <dc:type>News Item</dc:type>
   </item>




</rdf:RDF>
