top of page

Tartalomgyártás veszélyei mesterséges intelligenciával

Frissítve: 2023. márc. 14.

Az utóbbi években óriási áttörés történt a mesterséges intelligenciával megsegített iparágakban — ez pedig természetesen az MI fejlődésének köszönhető.


Bár a bennfentesek (pl.: Elon Musk) szerint a gépi tanulás már évek óta ezen a szinten tart, a közvélemény számára azonban csak nemrég vált elérhetővé ChatGPT — és egyből a leggyorsabban növekvő szoftverré vált.


Azonban mint minden technológiai újításnak, úgy ennek az okos és rendkívül hatékony MI-vezérelt chatbotnak is megvannak a maga hátrányai.


Íme minden, amit az MI által segített tartalomgyártásról (és annak veszélyeiről) tudni érdemes!


Tartalomgyártás mesterséges intelligenciával — hátrányok



A technológiai újításokra azt szokták mondani, hogy nem veszélyesek, ahogy hasznosak sem — csak és kizárólag rajtunk múlik, hogy mire használjuk őket, de ők maguk semlegesek. Jó példa erre a kalapács, ami egy rendkívül hasznos szerszám, vagy egy gyilkos eszköz is lehet. Ugyanez igaz az atomenergiára, csak jóval nagyobb méretekben. Minden bizonnyal a mesterséges intelligencia is ebbe a kategóriába fog esni, egyetlen fontos különbséggel.


Mivel az előző példákat emberek irányítják, ezért a történelemben leginkább az egyes személyek vagy hatalmi erők értékrendjén múlt, hogy mire használták őket. Az MI azonban képes lehet önmaga is gondolkodni. Ez fundamentális, sőt egzisztenciális kérdéseket vethet fel, így nem is csodálkozunk, hogy fenekestül forgatja fel azokat az iparágakat, ahol megjelenik.


Ez legutóbb a tartalomgyártás volt.


Az egyik fő aggály az MI alapú tartalomgyártással szemben kétségtelenül az, hogy a nyelvi modellek a tartalom létrehozásához plágiumot vagy a szerzői jogok nem szándékos megsértését eredményezhetik.


A Dall-E-t például több százmillió képen tanították be, ám ahogy utólag kiderült, ezek között rengeteg jogvédett, csak és kizárólag vásárlással megszerezhető fotó volt, amiért nem fizettek.


Bár a mesterséges intelligencia egyes esetekben igencsak egyedi és eredeti tartalmat generálhat, mindig fennáll annak az esélye, hogy a használt nyelvezet vagy vizuális látványvilág túlságosan hasonlít a már létező tartalmakhoz, ami hatalmas plágiumveszélyt rejt magában.


Ez különösen nagy problémákat vethet fel abban az esetben, ha a plágium nem ellenőrizhető, mert az például gated (pl.: jelszóval védett), vagy offline tartalom, amit a keresőrobotok vagy egyéb algoritmusok nem látnak. Jó példa erre az üzleti terv.


A mesterséges intelligencia által generált tartalmakkal kapcsolatos másik lehetséges probléma az, hogy a tartalomból hiányozhat a koherencia vagy az adott témához való kapcsolódás. Bár a ChatGPT-hez hasonló mesterséges intelligenciamodelleket úgy tervezték, hogy megértsék a természetes nyelvet és releváns tartalmat generáljanak, az ilyen eszközöknek még mindig vannak korlátai az összefüggő és hatékony írott tartalom létrehozására. Nagy problémát jelenthet, ha olyan dologról kell írnia, amit nem teljesen ért, ezáltal nem hogy hasznos, egyenesen káros információkkal látja el az embereket. Jó példa erre az egészségügyi iparág, a virológia vagy az élelmezéssel, élelmiszerekkel, ételekkel foglalkozó piac.


Továbbá fennáll annak a lehetősége is, hogy az AI által generált tartalom használatát az olvasók vagy a potenciális ügyfelek negatívan értékelik. Sok egyén és szervezet értékeli az egyedi és eredeti tartalmat, és a mesterséges intelligencia által generált tartalom használatát a tartalom létrehozásának rövidítésének vagy az erőfeszítés hiányának tekinthetik. Ez a megítélés negatív következményekhez vezethet, például az ügyfelek és olvasók bizalmának és hitelességének elvesztéséhez.


Végül pedig, mindig fennáll annak a veszélye, hogy a mesterséges intelligencia által generált tartalmat más algoritmusok azonosítják, ami negatívan befolyásolhatja az író vagy a szervezet hitelességét és hírnevét. Egyes AI nyelvi modellek, köztük a ChatGPT is, határozott nyelvi mintákkal rendelkeznek, amelyek egyes olvasók vagy algoritmusok számára azonosíthatóak lehetnek. Ha az AI által generált tartalom használata nem kerül nyilvánosságra, az megtévesztés vagy etikátlan gyakorlat vádjához vezethet. A lebukás még az előbb említett offline tartalmak esetében is megtörténhet, hiszen például egy könyv általában (előbb vagy utóbb) felkerül online formátumba is az internetre, ebből pedig könnyen kiderül, ha nem ember által íródott.


Összefoglalva, bár az AI nyelvi modellek, mint például a ChatGPT, hasznos eszközök lehetnek az írott vagy vizuális tartalom létrehozásában, vannak potenciális kockázatok és kihívások, amelyekkel a tartalomgyártóknak, művészeknek tisztában kell lenniük. A plágium, a koherencia vagy a relevancia hiánya, az olvasók vagy az ügyfelek negatív megítélése, valamint a lebukás kockázata mind olyan lehetséges problémák, amelyeket figyelembe kell venni.

A mesterséges intelligencia alapú nyelvi modelleket felelősségteljesen és etikusan kell használni, és az ilyen eszközök használatát nyilvánosságra kell hozni a hitelesség és az olvasók és az ügyfelek iránti bizalom fenntartása érdekében.


Pontosan úgy, ahogy most mi is tesszük: ez a cikk a mesterséges intelligencia segítségével, emberi közreműködéssel, szerkesztéssel és lektorálással történt!



16 megtekintés0 hozzászólás
bottom of page