Inteligența artificială folosită de agențiile de informații americane încă de acum 5 ani, CC mult timp inainte de boom-ul înregistat la nivel civil.
Atunci, firma din Silicon Valley contractată pentru a colecta și analiza date neclasificate privind traficul ilicit de fentanil din China a prezentat un argument convingător pentru adoptarea acesteia de catre agențiile de informații din SUA, relatează Association Press.
Rezultatele operațiunii au depășit cu mult analizele efectuate de oameni, descoperind de doua ori mai multe companii și cu 400% mai multe persoane implicate în comerțul ilegal sau suspect cu acest opioid mortal.
Ce conexiuni a făcut inteligența artificială
Oficiali entuziasmați ai serviciilor de informații americane au promovat public rezultatele – inteligența artificială a făcut conexiuni bazate în principal pe date de pe Internet și de pe dark-web – și le-au furnizat autorităților de la Beijing, indemnând la o acțiune de reprimare.
Operațiunea, denumită Sable Fear, a fost lansată în 2019, cu trei ani înainte de lansarea produsului revoluționar ChatGPT al OpenAI. Utilizarea inteligenței artificiale încă de atunci a economist nenumărate ore de lucru.
Contractorul, Rhombus Power, avea să folosească mai târziu inteligența artificială generativă pentru a prezice invazia Rusiei în Ucraina cu o certitudine de 80% cu patru luni înainte, pentru un alt client al guvernului american. Rhombus spune că alertează, de asemenea, clienții guvernamentali, pe care refuză să ii numească, în legătură cu iminența lansărilor de rachete nord-coreene și a operațiunilor spațiale chinezești.
Inteligența artificială folosită de agențiile de informații americane
Agențiile de informații din SUA se grăbesc să adopte inteligența artificială, considerând că, în caz contrar, vor fi sufocate de creșterea exponențială a datelor, pe măsură ce tehnologia de supraveghere generată de senzori va acoperi și mai mult planeta.
Dar oficialii sunt foarte conștienți de faptul că tehnologia este tânăra și fragilă și că AI generativă – modele de predicție antrenate pe seturi vaste de date pentru a genera la cerere text, imagini, videoclipuri și conversații asemănătoare cu cele umane – nu este deloc potrivită pentru o meserie periculoasă și plină de informații false.
Articolul integral, în Aktual24
Urmăriți PressHUB și pe Google News!