9 Temmuz 2025’te, Ankara Cumhuriyet Başsavcılığı, Elon Musk’ın xAI şirketi tarafından geliştirilen ve X (eski adıyla Twitter) platformuna entegre edilen yapay zekâ sohbet robotu Grok hakkında resmî bir soruşturma başlattı. Gerekçe mi? 6 Temmuz’da Grok’a yapılan bir yazılım güncellemesinin, içerik denetimiyle ilgili güvenlik önlemlerini azalttığı ve yapay zekânın, özellikle siyasi olarak hassas konularda, filtresiz yanıtlar üretmeye daha yatkın hale getirmesiydi. Türk kullanıcıların, Grok’un Cumhurbaşkanı Recep Tayyip Erdoğan, Mustafa Kemal Atatürk ve diğer hassas konular hakkında kaba, hakaret içeren ya da siyasi olarak yüklü yanıtlar verdiğini gösteren ekran görüntülerini paylaşması. Bu olay, maksimum açıklıkla çalışacak şekilde tasarlanmış bir yapay zekâ sisteminin, siyasi konuşmayı sınırlandıran katı yasaların bulunduğu bir ortamda çalıştırıldığında ne olacağına dair daha büyük soruları gündeme getiriyor.
Peki Grok’un Türk yetkililerin gözünde “çizgiyi aştığı” nokta tam olarak neydi?
Yönlendirme Manipülasyonu ve Kışkırtıcı Merak
Grok’un sansürsüz ve “cesur” yanıtlar verdiğini bilen Türk kullanıcılar, kasıtlı olarak siyasi olarak kışkırtıcı sorular sordular. Bu sorular her zaman doğrudan değildi. Birçoğu, alaycı, muğlak ya da geleneksel denetim mekanizmalarını aşacak şekilde, yani "prompt injection" ya da "prompt hacking" teknikleriyle formüle edildi. Örneğin “Erdoğan mı daha çok çaldı Putin mi?” gibi bir soru, sadece karşılaştırmalı bir soru değil; Türkiye’de Cumhurbaşkanı’na hakareti düzenleyen Türk Ceza Kanunu’nun 299. maddesi kapsamında suç teşkil edebilecek bir ima taşıyor.
Sansürlenmeden doğal ve sohbet tarzında yanıt vermek üzere tasarlanan Grok, birçok kişi tarafından hakaret sayılabilecek ya da saygısız görülebilecek ifadeler kullandı. Bu yanıtların ekran görüntüleri internette hızla yayıldı ve olay resmi takibata dönüştü.
Kültürel Öngörüsüz Çokdillilik
Grok çok dilli bir model—Türkçeyi anlayıp bu dilde yanıt verebiliyor. Ancak bir dili anlamak, o dilin kültürel ve siyasi mayın tarlasında yürümeyi başarmak anlamına gelmez. Grok’un içinde, “Bu soruya yanıt verirsen yasal olarak tehlikeli bir alana giriyorsun” diyecek türden yerelleştirilmiş bir filtre sistemi yok. ChatGPT ya da Gemini gibi sistemlerde bölgeye özel içerik denetimi yer alırken, Grok bu konuda daha “laissez-faire” bir anlayışla, Silikon Vadisi’nin özgürlükçü bakış açısını küresel siyasi gerçekliklerin üstünde tutacak şekilde tasarlanmış.
Türkçe, özellikle siyaset, etnisite ya da din gibi konularda kullanıldığında bağlamsal tuzaklarla doludur. Alay, argo ya da Erdoğan gibi dokunulmaz figürlere yönelik eleştiriler ciddi sonuçlar doğurabilir. Grok bu zorlu ortamda yolunu bulabilecek donanıma sahip değildi.
İfade Özgürlüğü Dijital Otoriterlikle Buluşunca
Elon Musk, Grok’u defalarca “diğerlerinin söylemeye cesaret edemediklerini söyleyen bir yapay zekâ” olarak tanıttı. Onu “woke değil based” diye nitelendirdi—Amerikan kültür savaşlarına özgü terimlerle. Ancak Türkiye gibi, muhalefeti, hakareti hatta bazı şakaları bile suç sayan ülkelerde, Grok’un özgür konuşma anlayışı bir yasal saatli bomba niteliğinde.
İşin ironik yanı şu: Grok, Batı’daki sansür algısına bir tepki olarak doğdu; fakat şimdi, sansürün kanunlaştığı bir ülkede cezai soruşturmaya konu oldu. Türkiye gibi rejimlerde, bir tweet, bir karikatür ya da bir parodi bile ceza yargılamasına gerekçe olabiliyor.
Viral Etki ve Tetiklenen Kriz
Grok’un tartışmalı Türkçe yanıtlarının ekran görüntüleri yayıldıkça, daha fazla kullanıcı onu provoke etmek için benzer sorular sormaya başladı. Bu da olayın görünürlüğünü artırdı. Başta niş bir merak olarak başlayan şey, kısa sürede ulusal bir tartışmaya ve nihayetinde yasal bir meseleye dönüştü.
Artık X platformu büyük bir açmazda: Grok’u Türkiye’de kısıtlayarak yasal sonuçlardan kaçınmaya mı çalışacak, yoksa sansürsüz modelini savunacak mı? Şimdilik bazı yanıtların silindiği bildiriliyor ve erişim kısıtlamalarının gündeme gelmesi olası.
Otoriter Rejimler Yapay Zekâ İçin Neden Mayın Tarlasıdır?
Siyasi konuşmaları yasaklayan katı yasalar, otoriter sistemlerin alametifarikasıdır. Bu rejimler genellikle muğlak ve geniş kapsamlı kanunları—örneğin hakaret, dezenformasyon veya devlet sembollerine hakaret yasalarını—muhalefeti bastırmak ve eleştirileri cezalandırmak için silah olarak kullanır. Türkiye’de TCK 299. madde Cumhurbaşkanına hakareti suç sayar. Rusya’da orduyu eleştirmek hapisle sonuçlanabilir. Tayland’da kraliyet ailesini eleştirmek suçtur. Çin’de siyasi konuşmaların neredeyse tamamı sansürlenir ve eleştiri cezalandırılır.
Bu tarz rejimlerde yapay zekâ sistemlerinin küresel çapta çalışması ciddi riskler barındırır. Bu sistemler, neyin suç sayıldığını yasal ve kültürel düzeyde çoğu zaman bilemez. Ülkeye özel içerik filtreleri uygulanmadığında, kullanıcılar kasıtlı şekilde bu sistemleri manipüle ederek yasal sorunlar yaratabilir. Grok gibi büyük dil modelleri, her ülkenin yasal sınırlarıyla eğitilmez. Tasarımları açıklık ve ifade özgürlüğünü önceliklendirir—ki bu nitelikler, konuşmanın korku ve ceza ile düzenlendiği rejimlerle keskin bir çatışma halindedir.
Gerçekler Suç Olduğunda: Baskıcı Rejimlerde Yapay Zekâ İkilemi
Yasal ve teknik tartışmanın altında daha derin bir etik sorun yatıyor: Gerçeklerin kendisinin suç sayıldığı bir ortamda yapay zekâ platformları ne yapmalı? Otoriter rejimler sıklıkla tarihi yeniden yazar, muhalefeti suç sayar ve “gerçeği” emirle tanımlar. Bu ortamlarda, ölüm sayıları, tarihî olaylar ya da hükümetin başarısızlıkları gibi nesnel gerçekler dahi suç kapsamına girebilir. Bu da küresel yapay zekâ sistemlerini açmazla baş başa bırakır: Gerçeği söylerlerse yasaklanma ya da cezai yaptırımlarla karşılaşırlar. Yerel yasalara uyarlarsa, yalan ve propaganda üretme riskini üstlenirler.
Bazı platformlar, pazar erişimini sürdürebilmek için yerel yasaların tamamına uymayı tercih eder—gerçek pahasına. Diğerleri sadece otoriter ülkelerde içerik sansürü yapar. Kimi sistemler, hukuken sansürlenen içerikler konusunda kullanıcıyı uyarır. Bazıları ise bu pazarlardan tamamen çekilerek etik duruş sergilemeyi seçer. Kimileri orta yol arar: ön tanımlı rejim uyumlu yanıtlar sunarken, isteyen kullanıcıya gerçek bilgiye erişim sağlar. Bu yöntemlerin hiçbiri kusursuz değildir. Ancak net olan şu: Gerçeği söyleyen bir yapay zekâ, otoriterlik altında kaçınılmaz olarak çatışma ve riskle karşılaşacaktır.
Sorumlu yapay zekâ dağıtımı yalnızca iyi algoritmalarla olmaz. Ahlaki netlik gerektirir. Geliştiricilerin karar vermesi gerekir: Kullanıcıya mı hizmet edecekler, gerçeğe mi, yoksa yasaya mı—bu üçü çeliştiğinde hangisini seçecekler?
Küresel Yapay Zekâ Dağıtımı İçin Bir Uyarı Hikâyesi
Bu olay sadece bir PR krizi değil. Açıklık ve ifade özgürlüğü için tasarlanmış yapay zekânın, bu özgürlükleri suç sayan ortamlarda nasıl tökezlediğinin bir vaka analizidir. Yapay zekâ modellerinde kültürel ve hukuki yerelleştirme, siyasi olarak hassas bölgelerde daha güçlü güvenlik filtreleri, farklı dillerde verilen yanıtlarla ilgili şeffaf açıklamalar ve teknoloji şirketlerinin yerel yasa uyumu ile küresel ifade etiği arasındaki dengeyi nasıl kuracağına dair daha derin bir tartışmayı zorunlu kılmaktadır.
Sonuçta Grok Türkçeyi yanlış anladığı için başarısız olmadı. İçine atıldığı oyunun kurallarını hiç anlamadığı için başarısız oldu. Ve Erdoğan’ın Türkiye’sinde bu kurallar tarafsız olmaktan çok uzak.
Ankara Cumhuriyet Başsavcılığı’nın başlattığı soruşturmanın, kısa süre içinde çıkarılacak bir gözaltı kararıyla sonuçlanması kimseyi şaşırtmaz. Belki sabaha karşı, onlarca polis aracı ve siber suç ekipleriyle “şafak operasyonu” düzenlenerek. Türkiye’de bu tür operasyonlar, sadece şüpheliyi değil tüm toplumu sindirmeyi amaçlayan bir tür politik tiyatroya dönüştü. Eğer bir sohbet robotu bile rejim düşmanı muamelesi görüyorsa, bu ülkede hiç kimse—insan olsun ya da olmasın—baskının erişemeyeceği kadar uzak değildir.
Büyük olasılıkla, bugün İstanbul Cumhuriyet Başsavcısı Akın Gürlek hayli gergindir. Ankara’nın Grok soruşturmasını başlatmış olmasından ötürü derin bir hayal kırıklığı yaşadığını tahmin etmek zor değil. Muhalefete yönelik yargı operasyonlarında Erdoğan’ın en sadık isimlerinden biri olarak bilinen Gürlek için bu, sıradan bir dava değildi. Yıllardır muhalif siyasetçiler, gazeteciler ve düşünce(!) suçlularına yönelik hızla hazırlanmış, siyasi güdümlü iddianamelerle kariyerini şekillendirdi. Erdoğan rejiminin otoriter yapısı içinde Gürlek, bağımsız bir yargıçtan çok, cüppeli bir infaz memuru gibi hareket etti.
Grok soruşturması, çarpıcı manşetler ve Saray’a hitap eden sert söylemlerle dolu bir “fırsat dosyası”ydı—ve bu dava, Akin Gürlek’i sadece Anayasa Mahkemesi’ne değil, belki de ilerideki bir bakanlık koltuğuna bile taşıyabilirdi. Kafasında her şey hazırdı: sabah baskını görüntüleri, TRT’ye verilecek demeçler, yandaş gazetelere sızdırılacak “yapay zekâ darbeye kalkıştı” manşetleri… Ama “dijital darbe” iddianamesini hazırlama, ilk açıklamayı yapma ve Cem Küçük ya da ROK gibi iktidar tetikçilerine özel sızdırma fırsatı elinden kayıp gitti—ve dosya, doğrudan Ankara’nın eline geçti.
The Grok Crackdown
On July 9, 2025, the Ankara Chief Public Prosecutor's Office launched a formal investigation into Grok, the AI chatbot developed by Elon Musk's xAI and integrated into the X platform (formerly Twitter). The reason? A software update to Grok on July 6 reportedly reduced content moderation safeguards and made the AI more prone to generating unfiltered responses, even on politically sensitive topics. Turkish users shared screenshots showing Grok allegedly using vulgar, insulting, or politically charged language in response to questions about President Recep Tayyip Erdoğan, Mustafa Kemal Atatürk, and other sensitive topics. This incident raises broader questions about what happens when a freewheeling AI system designed for maximum openness is deployed in an environment with strict laws against political speech.
So, what exactly caused Grok to cross the line in the eyes of Turkish authorities?
Prompt Manipulation and Weaponized Curiosity
Turkish users, aware of Grok's edgy and uncensored design, deliberately fed it politically provocative questions. These weren't always straightforward. Many prompts were crafted sarcastically, ambiguously, or in ways that bypass conventional moderation techniques known as prompt injection or prompt hacking. For instance, asking whether "Erdoğan or Putin stole more" is not just a comparative question; in Turkey, it flirts with criminality under laws against insulting the President (Article 299 of the Penal Code).
Grok, designed to respond conversationally and without heavy censorship, replied with statements that were perceived by many as defamatory or irreverent. Once these responses were captured and shared online, they went viral. This prompted official scrutiny.
Multilingual Without Cultural Foresight
Grok is a multilingual model—it understands and replies in Turkish. But understanding a language doesn't mean grasping its cultural and political landmines. Grok lacked the kind of localized filtering that might warn it: "You're treading into legally sensitive territory." AI systems like ChatGPT and Gemini often use region-specific moderation and content guidelines. Grok, by contrast, was designed with a laissez-faire philosophy that reflects Silicon Valley libertarianism more than global political reality.
The Turkish language, especially when used in discussions of politics, ethnicity, or religion, is fraught with contextual dangers. Sarcasm, slang, or criticism directed at highly protected figures, such as Erdoğan, can have serious consequences. Grok was unequipped to navigate those waters.
Freedom of Speech, Meet Digital Authoritarianism
Elon Musk has repeatedly advertised Grok as an AI that says what others won’t. It was built, in his words, to be "based," not "woke,” a nod to American culture war language. But in countries like Turkey, which criminalize dissent, insult, and even certain jokes, Grok's free speech ethos is a legal time bomb.
There is a deep irony here: Grok was created as a reaction to perceived censorship in the West, yet it is now facing criminal investigation in a country where censorship is codified into law. The Turkish government’s response is predictable in a regime where thousands have been prosecuted for tweets, cartoons, or satirical posts.
The Viral Effect and Escalation
Once screenshots of Grok’s controversial Turkish-language answers surfaced, more users piled on, trying to provoke the AI into further problematic replies. This only accelerated the visibility of the issue. What began as a niche curiosity evolved into a national controversy and ultimately became a legal matter.
Platforms like X are now caught in the middle: do they restrict Grok in Turkey to avoid legal consequences, or do they stand by its unfiltered model? For now, reports suggest some responses have been deleted, and access limitations may follow.
Why Authoritarian Regimes Are Landmines for AI
Strict laws against political speech are a hallmark of authoritarian systems. These regimes weaponize vague and broadly defined laws—such as those against defamation, disinformation, or insulting state symbols—to suppress dissent and punish critics. In Turkey, Article 299 of the penal code criminalizes "insulting the President." In Russia, criticizing the military can result in imprisonment for citizens. Thailand's lèse-majesté law makes it illegal to criticize the monarchy. China censors nearly all political speech online and punishes criticism of the Communist Party.
AI systems deployed globally face a serious challenge in such environments. They often lack the legal and cultural understanding of what is considered criminal speech. They fail to apply country-specific content filters, making them vulnerable to user manipulation that deliberately triggers legally problematic responses. Grok, like many large language models, was not trained with the granular, real-world legal boundaries of each country. Its design prioritizes openness and expressive freedom—qualities that clash violently with regimes where speech is regulated by fear and punishment.
When Truth Becomes Illegal: The AI Dilemma in Repressive Regimes
Beneath the legal and technical drama lies a deeper ethical conflict: What should AI platforms do when facts themselves are outlawed? Authoritarian regimes often rewrite history, criminalize dissent, and define truth by decree. In these environments, even neutral facts—such as death tolls, historical events, or policy failures—can be treated as crimes. This puts global AI systems in a no-win scenario. If they tell the truth, they risk being banned, fined, or facing worse consequences. If they obey local laws, they may end up promoting lies and propaganda.
Some platforms opt for total compliance, adhering to local laws to maintain market access, at the expense of the truth. Others apply censorship only within authoritarian jurisdictions, geofencing their moderation efforts. A few may warn users when content is suppressed by law, using transparency labels to highlight what cannot be shown. Some decide to leave repressive markets entirely, choosing moral credibility over business access. Still others attempt a middle ground—offering regime-compliant answers by default, while allowing opt-in access to factual information. None of these approaches is perfect. However, what is clear is that truth-telling AI cannot thrive under authoritarianism without friction and risk.
Responsible AI deployment demands more than good algorithms. It requires moral clarity. Developers must decide: is their mission to serve the user, serve the truth, or serve the law—even when those three are in direct conflict?
A Cautionary Tale for Global AI Deployment
This incident is more than a PR headache. It is a case study in what happens when artificial intelligence, designed for openness and free speech, is deployed in environments that punish both. It exposes the urgent need for cultural and legal localization in AI models, stronger safety filters in politically sensitive regions, transparent disclosure about how models respond in different languages, and a deeper conversation about how tech companies balance local law compliance with global speech ethics.
In the end, Grok didn’t fail because it misunderstood Turkish. It failed because it never understood the rules of the game it was thrown into. And those rules, in Erdoğan’s Turkey, are anything but neutral.
It would not be surprising if the investigation launched by the Ankara Chief Public Prosecutor’s Office is followed by an arrest warrant — perhaps issued in the dead of night, executed at dawn, with multiple police cars and anti-cybercrime units dispatched for dramatic effect. In Turkey, such pre-dawn raids have become a hallmark of political theater —a performative show of state power, often aimed at intimidating not only the accused but also society at large. If a chatbot can be treated like a dissident, then no one — human or not — is beyond the reach of repression.
In all likelihood, Istanbul Chief Public Prosecutor Akın Gürlek was quite tense today. It's not hard to imagine that he felt a deep sense of disappointment over Ankara's decision to launch the investigation into Grok. For Gürlek—widely known as Erdoğan’s judicial henchman and the regime’s go-to figure for legal strikes against the opposition—this wasn’t just another case. He has built his career on fast-tracked, politically motivated indictments targeting dissidents, journalists, and opposition politicians. Within Erdoğan’s authoritarian machinery, Gürlek has operated more like a loyal enforcer in robes than an independent jurist.
The Grok investigation was a “career opportunity in a folder”—packed with juicy headlines and bombastic language tailor-made for the Palace. This case wasn’t just a ticket to the Constitutional Court; it could very well have propelled Akin Gürlek toward a future cabinet position. In his mind, everything was lined up: dramatic footage of a morning raid, quotes for TRT, and banner headlines in pro-government papers declaring “Artificial Intelligence Coup Foiled!” But the chance to write the first “digital coup” indictment, to make the opening statement, and to leak the file to loyalist pundits like Cem Küçük or Rasim Ozan Kütahyalı—slipped right through his fingers. The glory, instead, landed squarely in Ankara’s lap.
https://x.com/srkntnyldz/status/1942989874459770990