Revoluția inteligenței artificiale (AI)  a mocnit silențios timp de peste un deceniu, însă abia recent instrumentele AI avansate au devenit accesibile utilizatorilor non-tehnici. Instrumentele de tip Generative AI, capabile să genereze text sau imagini impresionante pe baza unor instrucțiuni simple, au marcat o adevărată descoperire. Acestea reprezintă deja o componentă standard din setul de instrumente al profesionistului modern, ajutând la brainstorming de idei, crearea rapidă de materiale vizuale și primirea de feedback instant de la un coleg digital.

Tehnologia AI non-generativă a sporit, de asemenea, puterea instrumentelor digitale existente, permițând profesioniștilor să utilizeze capacitatea acesteia de a identifica tipare și de a înțelege date neformatate pentru a-și îmbunătăți fluxul de lucru.

AI este un instrument puternic, însă o putere mare vine cu o responsabilitate pe măsură. Limitele și riscurile AI sunt bine documentate, de la preocupările legate de proprietatea intelectuală în cazul instrumentelor de Generative AI până la tiparele defectuoase de raționament care consolidează și amplifică prejudecățile umane comune.

Din acest motiv, companiile care utilizează și dezvoltă instrumente AI se străduiesc să implementeze o inteligență artificială responsabilă și etică. Această mentalitate are ca scop dezvoltarea utilizărilor pozitive ale AI și punerea lor la dispoziția unui număr mai mare de persoane, reducând totodată riscurile grave pe care le creează.

Instrumentele AI nu vor dispărea, iar în viitor vor fi și mai avansate și mai utilizate pe scară largă decât astăzi. Prin urmare, este timpul ca fiecare companie să înceapă să se gândească la modul în care poate asigura o inteligență artificială responsabilă și etică în cadrul organizației. Acest articol nu trebuie considerat consultanță juridică sau de conformitate, însă te va ajuta să înțelegi ce înseamnă AI responsabil în practică și cum să încurajezi utilizarea responsabilă a AI-ului în compania ta.

Ce este inteligența artificială responsabilă?

Deși principiile de bază sunt aceleași, definiția Inteligenței Artificiale Responsabile variază. Conform Google, care investește masiv în propriile instrumente IA:

„Inteligența artificială responsabilă ia în considerare impactul societal al dezvoltării și scalării tehnologiilor [AI], inclusiv potențialele pericole și beneficii.”

În toate activitățile lor legate de IA, aceștia își propun să rămână responsabili concentrându-se întotdeauna pe corectitudine, responsabilitate, siguranță și confidențialitate. Microsoft, un alt motor principal al transformării AI, definește sistemele AI responsabile ca fiind echitabile, fiabile și sigure, private și securizate, incluzive, transparente și responsabile.

Definiția exactă a utilizării responsabile a AI în compania ta ar putea fi ușor diferită. Însă sensul de bază va fi același – o inteligență artificială utilizată în mod etic, pozitiv și incluziv. Înseamnă utilizarea AI pentru a completa și îmbunătăți capacitățile umane, reducând în același timp influența prejudecăților umane comune, în loc să o folosim pentru a înlocui oamenii în totalitate.

În domeniul Resurselor Umane, un exemplu potențial de utilizare responsabilă ar putea fi utilizarea unui chatbot AI pentru a scana și a ajusta descrierile locurilor de muncă pentru a evita limbajul non-incluziv. Totuși, instrumentul AI defectuos de recrutare al Amazonului, pe care compania a încetat să-l utilizeze după ce a descoperit că este părtinitor împotriva candidatelelor femei, nu este un exemplu bun.

Cum să asiguri utilizarea responsabilă a inteligenței artificiale în compania ta

În funcție de domeniul de activitate și de experiența anterioară a companiei cu AI, există mai multe modalități de a crea o înțelegere comună a ceea ce înseamnă utilizarea responsabilă a AI și de a o pune în practică în cadrul întregii companii. Cu toate acestea, majoritatea companiilor care au deja succes fac acest lucru prin una sau mai multe dintre următoarele metode:

Instruire în utilizarea responsabilă a inteligenței artificiale

Este puțin probabil să implementezi un instrument nou important, precum un CRM sau ATS, fără a oferi angajaților o instruire adecvată. Așadar, atunci când o tehnologie nouă precum AI începe să se infiltreze în toate părțile afacerii tale, este la fel de important să te asiguri că echipa ta știe să o folosească corect și responsabil.

De la apariția pe piață a instrumentelor AI generative ușor de utilizat, entuziasmul a crescut. Utilizatorii neexperimentați în AI pot vedea aceste instrumente ca fiind complet pozitive și fără riscuri, trecând cu vederea potențialele pericole - cum ar fi problemele de securitate a datelor, încălcarea proprietății intelectuale și inechitatea și părtinirea cauzate de datele de instruire de calitate slabă.

Instruirea este o oportunitate de a risipi miturile din jurul AI și de a informa colegii despre dezavantajele și limitările tehnologiei. Atunci când au toate informațiile, vor putea profita de beneficiile AI, evitând totodată cele mai grave pericole ale acesteia.

Instruirea este, de asemenea, solicitată de angajații din zilele noastre. În studiul Randstad Workmonitor, la care au participat peste 27.000 de angajați din întreaga lume, AI a fost în fruntea listei de abilități pe care respondenții doreau să le dezvolte. Un sondaj PwC la care au participat peste 54.000 de angajați a avut rezultate similare, constatând o atitudine în mare parte pozitivă față de AI la locul de muncă în rândul respondenților. Educarea angajaților în domeniul abilităților cheie de AI și modul de a utiliza tehnologia ca instrument util îi poate transforma în utilizatori de AI încrezători și eficienți, ducând la satisfacerea nevoii lor de cunoștințe.

RM_202-tech.webp
RM_202-tech.webp

Monitorizarea utilizării AI și implicarea angajaților

Din nou, nu ai implementa eficient un instrument nou important precum un CRM în organizație fără ca apoi să verifici modul în care este utilizat. Pentru a asigura succesul, echipele care lucrează cu instrumentul ar trebui să își ajusteze continuu procesele și să exploreze noi funcționalități, descoperind ce merge și asigurându-se că instrumentul nu este utilizat incorect. Organizația ta ar trebui să facă același lucru cu instrumentele AI pentru a asigura o utilizare responsabilă.

La nivel operațional, desemnarea unor angajați specifici drept „proprietari” (owner) ai instrumentelor AI ajută la acumularea expertizei și crearea responsabilității. Asigurarea faptului că acești proprietari sunt familiarizați cu principiile Inteligenței Artificiale responsabile îi ajută, de asemenea, să evalueze noi cazuri de utilizare și să prevină utilizarea nesupravegheată a instrumentelor AI puternice în zone noi ale companiei.

La un nivel mai înalt, sondajele periodice pot ajuta conducerea companiei să înțeleagă cum este utilizată AI în prezent în organizație și cum se extinde în timp - asigurându-te că nu ești luat prin surprindere dacă apar potențiale probleme legate de AI.

Pe scurt, noile instrumente AI nu ar trebui implementate într-un mod de „setare și uitare”. În schimb, angajații ar trebui să înțeleagă importanța gândirii critice cu privire la utilizarea AI și să lucreze la îmbunătățirea și dezvoltarea utilizării instrumentelor în timp.

Guvernanță și politici clare privind utilizarea responsabilă a Inteligenței Artificiale

A avea documente clare de guvernanță AI și o definiție comună a Inteligenței Artificiale responsabile este una dintre cele mai importante măsuri. Ideea fiecărei persoane despre „responsabil” poate diferi, iar o politică definită sau un set de linii directoare, aprobate de conducerea companiei și distribuite tuturor colegilor, îi pune pe toți pe aceeași pagină. Oferă membrilor echipei un punct de referință în cazul în care nu sunt 100% siguri că sarcina AI planificată este permisă și responsabilă.

Șabloanele noastre pentru crearea propriilor principii și politici IA sunt resurse excelente dacă începi să îți proiectezi poziția oficială a companiei cu privire la AI. Dar dacă ești la început și îți dorești să te asiguri că pui întrebările corecte despre AI, descarcă diagrama noastră de flux pentru a identifica utilizarea responsabilă a AI în organizația ta. Prin adresarea unei serii de întrebări, te va ajuta să evaluezi cazuri specifice de utilizare a AI și îți va spune dacă acestea pot fi considerate responsabile - sau dacă trebuie să mai lucrezi puțin înainte de a le implementa în companie.