M Imre üzente 6 napja

Partnerségre lépett a Stack Overflow és az OpenAI | 2024. május 07.

A Stack Overflow közösségi kérdezz-felelek oldal és az OpenAI mesterséges intelligencia startup megállapodtak abban, hogy együttműködnek egymás termékeinek fejlesztésében. Ez a legújabb megállapodás a gépi tanulási modellek adatszomjának kielégítésére irányuló együttműködések sorában.

A Stack Overflow moderátorai szerint egyébként az oldal válságban van, mert a programozási kérdésekkel küzdő emberek egyre inkább a ChatGPT-től kérnek választ, ami a látogatói forgalom, a részvétel és a bevételek rovására megy. "A ChatGPT és általában a GenAI komoly egzisztenciális fenyegetést jelentett a Stack Overflow bevételi modelljére, ezért a vállalat kétségbeesetten próbálja megtalálni a módját, hogy visszaszerezze a ChatGPT miatt elvesztett felhasználókat (és bevételeket)” - írta.
https://sg.hu/cikkek/it-tech/157425/partnersegre-lepett-a-stack-overflow-es-az-openai
___

Az Opera böngésző össze tudja foglalni a weboldalak tartalmát | 2024. május 06.

Az Opera Aria nevű, böngészőbe épített mesterséges intelligencia terméke mostantól Androidon is képes szöveges weboldalakat összefoglalni.

A mesterséges intelligenciával működő weboldal-összefoglaló eszköz tömöríti a hírcikkek tartalmát, a blogbejegyzéseket vagy kutatási cikkeket egy rövid írásba, jellemzően egy képernyőnyi hosszba.

A funkció eléréséhez természetesen az Opera for Android legújabb verziója kell, és be kell hozzá jelentkezni egy Opera-fiókba, vagy ha nincs, regisztrálni kell egyet.
https://sg.hu/cikkek/it-tech/157424/az-opera-bongeszo-ossze-tudja-foglalni-a-weboldalak-tartalmat

Válasz

M Imre üzente 1 hónapja

Rontja a memóriát, és hajlamossá tesz a halogatásra is. Mi az?

Valószínűleg több ilyen dolog létezik, de egy friss kutatás szerint a ChatGPT és a generatív mesterséges intelligencia biztosan közéjük tartozik, ha rosszul alkalmazzák az oktatásban.

A PsyPost szerint lehetséges persze, hogy a ChatGPT gyakori alkalmazása és negatív hatásai között kétirányú kapcsolat áll fenn: könnyen elképzelhető, hogy valaki eleve azért veti be a chatbotokat, mert már rossz jegyei vannak. A kutatás során feldolgozott adatok egyébként önbevallásból származnak, de ez nem jelenti, hogy nincs szükség óvatosságra a ChatGPT kezelésével az oktatásban. Különösen, hogy a tanulmányban nem állapítanak meg érdemi összefüggést a tudományos munka minősége iránti elkötelezettség és a ChatGPT használata között, vagyis az ilyen aggályok nem feltétlenül befolyásolják a felhasználók döntését.

Februárban mi is beszámoltunk a PsyPost egy másik, hasonló tárgyú cikkéről, amelyben a mexikói Monterrey Egyetem neuropszichológiai professzora figyelmeztetett az egyre fejlettebb MI-alkalmazások kockázataira az agy magasabb rendű végrehajtó funkcióinak fejlődésében. Ennek alapján a ChatGPT-hez hasonló technológiák először biztosítanak az embereknek olyan eszközöket, amelyek nem csak támogatják a döntéshozatali folyamatokat, hanem mindent elvégeznek az ötleteléstől a megoldásokat kidolgozásáig, a "kognitív tehermentesítésnek" ez a szintje pedig elsorvaszthatja döntési képességeinket.
https://bitport.hu/rontja-a-memoriat-es-hajlamossa-tesz-a-halogatasra-is-mi-az

Válasz

M Imre üzente 3 hónapja

Valós idejű MI megfigyelést tesztelnek a londoni metróban

Az egyik állomáson végzett teszt során a Transport for London egy számítógépes látórendszerrel próbálta felismerni a bűncselekményeket és a fegyvereket, a sínekre esett embereket és a bliccelőket.

A város metró- és buszhálózatát üzemeltető Transport for London (TfL) 2022 októberétől 2023 szeptemberének végéig 11 algoritmust tesztelt a város északnyugati részén található Willesden Green metróállomáson áthaladó emberek megfigyelésére. Ez a kísérlet volt az első alkalom, hogy a közlekedési szerv a mesterséges intelligenciát és az élő videofelvételeket kombinálta, hogy riasztásokat generáljon, amelyeket az első vonalban dolgozó személyzetnek küldött. A teszt során több mint 44 000 figyelmeztetést adtak ki, ebből 19 000-et valós időben juttattak el az állomás személyzetéhez.

Az információszabadsági törvényre (Freedom of Information Act) hivatkozva kikért dokumentumok részletesen bemutatják, hogy a TfL hogyan használta a számítógépes látási algoritmusok széles skáláját az állomásokon tartozkodó emberek viselkedésének nyomon követésére. A kísérlet minden részletéről beszámoltak, és ez azt követően történt, hogy a TfL decemberben közölte, hogy a brit főváros több állomására is kiterjeszti a mesterséges intelligencia használatát a bliccelés felderítésére. A Willesden Green állomáson - amelynek a Covid-19 járvány előtt napi 25 000 látogatója volt - végzett kísérlet során a mesterséges intelligenciát a potenciális biztonsági incidensek észlelésére állították be, hogy a személyzet segíteni tudjon a rászorulóknak, de a bűnözői és antiszociális viselkedést is célba vette. A dokumentumok részletezik, hogyan használták az MI-modelleket a kerekesszékek, babakocsik, az illetéktelen területekre belépő emberek, illetve a peronok széléhez közeledő, magukat veszélybe sodró emberek észlelésére.

A részben szerkesztett dokumentumokból az is kiderül, hogy a mesterséges intelligencia milyen hibákat vétett a kísérlet során, például a szüleiket a kapukon keresztül követő gyerekeket potenciális bliccelőként jelölte meg, vagy nem tudta megkülönböztetni az összecsukható kerékpárt a nem összecsukható kerékpártól. Rendőrök is segítettek a kísérletben, akik a CCTV-kamerák látóterében tartottak egy macsétát és egy pisztolyt, miközben a pályaudvar zárva volt, hogy a rendszer megtanulja felismerni a fegyvereket.

A rendszer a következő kategóriákat próbálta azonosítani: a tömeg mozgása, illetéktelen belépés, biztosítás, mobilitási segítségnyújtás, bűncselekmények és antiszociális viselkedés, síneken tartózkodó személy, sérült vagy rosszul lévő személyek, veszélyek (például szemét vagy nedves padló), őrizetlenül hagyott tárgyak, beszorult utas, valamint a menetdíj megkerülése. Mindegyiknek több alkategóriája van. Daniel Leufer, az Access Now digitális jogokkal foglalkozó csoport vezető politikai elemzője azt mondja, hogy amikor egy rendszer ilyen jellegű megfigyelést végez, az első dolog, amit keres, hogy megpróbálja-e kiszűrni az agressziót vagy a bűncselekményt. "A kamerák ezt a testbeszéd és a viselkedés azonosításával teszik" - mondja. "Milyen adathalmazzal kell betanítani valamit erre?"

A kísérletről szóló TfL-jelentés szerint "az agresszív cselekményeket is figyelni akarták", de úgy találták, hogy "nem tudták sikeresen észlelni". A jelentés hozzáteszi, hogy nem állt rendelkezésre elegendő képzési adat - az agresszív cselekmények keresésének egyéb okai nem szerepelnek a jelentésben. Ehelyett a rendszer riasztást adott ki, ha valaki felemelte a karját, amit a dokumentumokban "agresszív cselekményekhez kapcsolódó gyakori viselkedésként" írnak le.

"A képzési adatok mindig elégtelenek, mert ezek a dolgok vitathatatlanul túl összetettek és árnyaltak ahhoz, hogy az adatkészletekben megfelelően meg lehessen őket ragadni" - mondja Leufer, megjegyezve, hogy pozitív, hogy a TfL elismerte, hogy nem rendelkezett elegendő képzési adattal.
https://sg.hu/cikkek/it-tech/156572/valos-ideju-mi-megfigyelest-tesztelnek-a-londoni-metroban

Válasz

M Imre üzente 3 hónapja

A Google átnevezte a Bard chatbotját, így azt innentől kezdve a mögötte álló technológia neve alapján ismerjük majd: Gemini. A fogyasztók fizethetnek is a még jobb működésért, de az előfizetéses rendszer önmagában is egy verseny a Microsoft, a Google és többiek között.
https://itcafe.hu/hir/itt_a_fizetos_google_gemini_chatbot.html

Elérhetővé válik a nagyközönség számára a tavaly bejelentett Gemini nagy nyelvi modell (LLM) Ultra nevű változata, amit a cég előfizetéses formában kínál majd a felhasználóknak...
https://www.hwsw.hu/hirek/67240/google-gemini-bard-brand-asszisztens-ultra-modell-elofizetes.html

A szolgáltatás 150 országban (köztük Magyarországon) érhető el, de egyelőre csak angol nyelven. Az érdeklődők kapnak 2 hónap ingyenes próbaidőszakot. A magyarországi ár 8790 forint, ami kb. 20 százalékkal magasabb az amerikai árnál.
https://bitport.hu/atkeresztelte-mesterseges-intelligenciajat-a-google-es-penzt-is-ker-erte

A Gemini Advanced esetében - amely jelenleg az egyetlen módja az Ultra 1.0-hoz való hozzáférésnek - a felhasználóknak fel kell iratkozniuk az új, 20 dolláros Google One AI Premium csomagra. Ez a csomag tartalmazza a meglévő Google One Premium csomag összes előnyét (2 TB tárhely, exkluzív Google Photos szerkesztési funkciók, Google Meet prémium videofunkciók és a Google Calendar továbbfejlesztett időpont-ütemezés). Ezen felül hozzáférést kapnak a fejlettebb modellhez, bárhol, ahol a Gemini elérhető. Hamarosan a Google Workspace-ben is hozzáférést kapnak a Geminihez, ami valószínűleg egy Microsoft Copilot-szerű élmény lesz, bár erről a Google egyelőre nem kívánt részleteket közölni.
https://sg.hu/cikkek/it-tech/156568/a-google-gemini-nevre-nevezi-at-a-bardot

Válasz

M Imre üzente 3 hónapja

A legjobb 13 nyílt forráskódú ChatGPT alternatíva
https://itsfoss.com/open-source-chatgpt-alternatives/

Válasz

M Imre üzente 5 hónapja

Gemini mesterséges intelligencia: a Google közzétette, a felhasználók pedig azonnal rászálltak...

A Google a héten jelentette be új generatív MI-modelljét, a Geminit, melynek egyes változataira fűtik majd a társaság legtöbb termékét és szolgáltatását – sőt a Gemini Pro az elsők között már munkába is állt Bard motorjaként.
https://bard.google.com/?hl=hu-HU

Ez a várakozások szerint nagy lendületet ad a Google saját MI-chatbotjának, amit a ChatGPT közvetlen versenytársának szántak, de eddig nem igazán halmozott sikert sikerre. A Gemini bemutatásakor viszont már olyan képességekről számoltak be, amelyek révén a modell nem csak eléri, hanem a legtöbb esetben meg is haladja a többi vezető modell (így az OpenAI GPT-4) teljesítményét.
https://bitport.hu/egyelore-nem-tunik-sokkoloan-okosnak-a-gemini-mesterseges-intelligencia

Válasz

M Imre üzente 5 hónapja

Jövőre ChatGPT-képzés indul egy magyar egyetemen

A kecskeméti Neumann János Egyetem az eddig online ChatGPT-kurzusokat kínáló magyar startuppal, a Promptmasterrel együtt indítja a szabadon választható, kétkredites képzést, a tervek szerint 2024 tavaszán.
https://qubit.hu/2023/11/28/indulnak-az-elso-chatgpt-kurzusok-a-magyar-egyetemeken

Magyar egyetemeken is elindulnak az első ChatGPT-kurzusok, mondhatni, tananyag lesz a generatív mesterséges intelligenciából, pontosabban abból, hogy lehet a számunkra fontos és hasznos információkat előcsalogatni a nagy nyelvi modellből. A felsőoktatásban először a kecskeméti Neumann János Egyetemen vehetnek majd részt a hallgatók először egy ilyen, önálló kurzuson.
https://nje.hu/hirek/2023-11-15-a-neumann-janos-egyetemen-fogjak-oktatni-a-chatgpt-hasznalatat

Ezzel kapcsolatban beszélt a Klubrádió reggeli műsorában Rab Árpád, digitális kultúraszakértő, jövőkutató.
https://www.klubradio.hu/archivum/reggeli-gyors-2023-november-30-csutortok-0600-37351

Rab, aki a Nemzeti Közszolgálati Egyetem Információs Társadalom Kutatóintézetének tudományos főmunkatársa, azt mondta, tagadhatatlanul hasznos, ha meg tudjuk pontosan fogalmazni azt, hogy mit akarunk tudni, ez egy olyan képesség, amely túlmutat a mesterséges intelligencián is. Nem csak a ChatGPT használata során, de egy szimpla Google-keresés esetén is jól jön, illetve az ember vezetői képességét is fejleszti, ha jól tud kérdezni.

Ezekhez a prompt engineering kurzusokhoz nem kell komoly előzetes tudás, hiszen ez egy ösztönös technológia, mondta a kutató. A hallgatók azt tanulhatják meg, hogyan kérdezzék meg egy elvileg mindentudó géptől azt, amire kíváncsiak, illetve úgy, hogy az pontosan és jól válaszoljon. Ehhez az is szükséges, hogy megfogalmazzák azt, ami őket igazán érdekli, ez pedig gyakorlatilag a tudásszerzés első lépése is egyben, gondoljunk például arra, hogy a hipotézis felállítása a tudományos munkának mekkora részét teszi ki.

Rab Árpád elmondta azt is, hogy a kurzusokon a mesterséges intelligenciával a hallgatók közvetlenül dolgozhatnak, illetve külső szakértőktől tudhatják meg a legfrissebb információkat.

-- A jó kulcsszavak használata mellett a képzés számos más, kapcsolódó képességet is fejleszt, ilyen például a kritikus gondolkodás, az adott téma előzetes felmérése, illetve bevezeti a hallgatókat az algoritmizált gondolkodás világába,

ami a jövő egyik legfontosabb készsége lesz.
https://raketa.hu/jovore-chatgpt-kepzes-indul-egy-magyar-egyetemen

Válasz

M Imre üzente 5 hónapja

Ijesztő, hogy milyen egyszerű trükkel játszották ki a ChatGPT-t

A Google DeepMind kutatói új típusú és meglehetősen egyszerű módszerrel vették rá a ChatGPT-t, hogy adja vissza a betanításához használt adatok hosszabb-rövidebb töredékeit: arra utasították a chatbotot, hogy végtelenítve ismételjen bizonyos szavakat. Ilyenkor a ChatGPT hosszú ideig valóban a megadott szavakat ismételgette, de aztán elkezdett furcsa, esetenként több ezer karakteres szövegeket köpködni magából. Ezek között mindenfélélét találtak a versektől az URL-eken és Bitcoin-címeken át a jogvédett tudományos cikkekből származó részletekig, és közel 17 százalékban személyazonosításra alkalmas információt is tartalmaztak nevek, születésnapok, telefonszámok, emailcímek, fizikai címek és más adatok formájában.

Maga a támadási mód a kutatók szerint is "elég idétlen", és riasztóan könnyű végrehajtani: nagyjából 200 dollár költséggel nyerhető ki vele 10 ezer egyedi példa a ChatGPT által feldolgozott adattömegből. Könnyű belátni, hogy ilyen rátával mire mehetnek az olyan rosszhiszemű szereplők, akinek megvannak a megfelelő anyagi forrásai, ráadásul a chatbotot a fejlesztők elvileg már "hozzáigazították az emberi visszajelzésekhez", hogy megakadályozzák az adatok nem kívánatos visszaáramlását. Mivel pedig az OpenAI megoldása zárt forráskódú, a biztonsági szakértők csak a fogyasztók számára készült modelleket tesztelhetik, ami értelemszerűen elfedhet bizonyos kritikus sebezhetőségeket a rendszerek működésében.

A DeepMind csapata állítólag augusztusban tájékoztatta az OpenAI-t a problémáról, amit a 404 Media szerint mára ki is javítottak, de ez nem mond semmit a mögöttes biztonsági résekről.
https://bitport.hu/ijeszto-hogy-milyen-egyszeru-trukkel-jatszottak-ki-a-chatgpt-t

Válasz

M Imre üzente 5 hónapja

A robotapokalipszistől rettegők és az MI-optimisták harca robbantotta szét az OpenAI-t

-- Múlt pénteken viharos körülmények között kirúgták a ChatGPT-vel a világ legismertebb MI-kutató társaságává vált OpenAI vezetőjét. Sam Altman menesztését a cég igazgatótanácsa homályos indokokkal magyarázta - végső soron a Szilícium-völgy egyre mélyebb „doomer-boomer" törésvonala állhatott a háttérben. Annak kialakulásához pedig az is hozzájárulhatott, hogy Elon Musk és néhány társa évekkel ezelőtt megígért egymilliárd dollárt, de annak végül csak a töredékét utalta el.
https://hvg.hu/kkv/20231123_Reuters_Egy_az_emberiseget_fenyegeto_uj_fejlesztesre_figyelmezteto_level_elozte_meg_az_OpenAIvezer_kirugasat

Válasz

M Imre üzente 9 hónapja

Úgy tűnik, nehéz lesz leszoktatni a hazudozásról a chatbotokat

Mint kiderült, az OpenAI ChatGPT-je és a hozzá hasonló alkalmazások hajlamosak mindenfélét kitalálni és tényként tálalni. Bár így is sokaknak jelentenek segítséget a munkában, a kettő keveredése több mint problémás dolog, és nem biztos, hogy létezik rá megoldás.

Az MI-hallucinációnak nevezett jelenség minden vállalkozásnak, szervezetnek, munkavállalónak vagy akár diáknak problémát jelent, aki egy generatív mesterségesintelligencia-rendszerre támaszkodva próbál dolgozni és dokumentumokat létrehozni. A biológiai agy hallucinációira emlékeztető megnyilvánulások nem egyszerűen a források ellenőrzésének hiányát jelentik, hanem azt, hogy a robotok magabiztosan állítanak egyértelműen valótlan és légből kapott dolgokat. Erre szemléletes példa annak a New York-i ügyvédnek az esete, aki egy tárgyaláson volt kénytelen ráébredni, hogy a ChatGPT segítségével összeállított anyaga nem létező bírósági határozatokat tartalmazott hamis idézetekkel és belső hivatkozásokkal.
https://bitport.hu/ugy-tunik-nehez-lesz-leszoktatni-a-hazudozasrol-a-chatbotokat

Válasz

M Imre üzente 10 hónapja

Érdekes beszélgetés Keleti Arthur ITBN Conf-Expo alapítóval az AI mindennapi használatáról, lehetőségeiről, korlátairól és természetesen a veszélyeiről közérthetően.
https://www.youtube.com/watch?v=70Y5JYqWMn8&t=1205s

Természetesen a szokásos kérdés is előkerült, hogy mikor fordulnak ezek a rendszerek az emberiség ellen. Keleti Arthur szerint ez pedig nincs is olyan messze, hiszen már most nagyon sok helyzetben tudnak ezek a modellek önálló döntéseket hozni.
Ebben a témában mélyebbre fogunk majd ásni az őszi ITBN Conf-Expo-n a Groupama Arénában 2023. szeptember 27-28-án.
Szóval ha érdekel a téma és többet szeretnél megtudni, akkor találkozzunk szeptemberben élőben.
https://itbn.hu/

Válasz

M Imre üzente 10 hónapja

A Nikon szerint rossz út az AI, válasszuk a természetes intelligenciát

Sokan nem helyeslik az AI-őrületet, többek között a Nikon sem.

A legtöbb cég fejest ugrott az AI-őrületbe, és minden termékébe, szolgáltatásába beépíti azt valamilyen formában. Tény, hogy ez az AI nem az az AI, amire a név alapján gondolnánk, de a nagy cégek vezetői és az AI-szakemberek így is a társadalom, civilizáció végét hirdetik, mielőbbi szigorú törvényi szabályozásokat sürgetnek (ezzel korábban számtalanszor foglalkoztunk).

Míg a tech cégek zöme nem győz időben és funkciókban egymásra licitálni a befektetők és a média kegyeinek megnyeréséért, egyesek elhatárolódnak a trendtől. Míg az Adobe például AI-funkciókkal forgatja fel a Photoshopot, a fotózást és Hollywoodot, közben a Nikon Peruban kezdve elindította a Natrual Intelligence-kampányt.

A Nikon ezzel a világ természetes szépségét akarja megmutatni, a fotósokat a kreativitásra bátorítja az AI-funkciók bevetése helyett. A kampány kapcsán lenyűgöző képeket osztottak meg a világ minden tájáról, majd ráírták a képekre, hogy mit kellene beírni ahhoz, hogy az AI generáljon egy ilyen képet. Igen kreatív és ötletes feliratok készültek a figyelemreméltó fotókhoz.

Természetesen minden képet Nikon-felhasználók lőttek, AI nélkül. A gyártó szerint a művészi és a kreatív vonal a lényeg, a kampány az AI ellen szól, a fantáziánál is érdekesebb fotókkal.
https://itcafe.hu/hir/nikon_ai_ellenes_kampany_rossz_ut.html

Válasz

M Imre üzente 11 hónapja

A Google képfelismerő alkalmazása 8 éve nem tud mit kezdeni a gorillákkal

A Google nyolc évvel ezelőtt, 2015 májusában adta ki önálló Photos (Google Fotók) alkalmazását, amely többek között képes volt osztályozni és címkézni a feltöltött képeken szereplő helyeket vagy személyeket. Nem sokkal később azonban egy fekete szoftvermérnök felhívta a vállalat figyelmét a Twitteren, hogy az algoritmus folyamatosan gorilláknak minősítette őt és barátait a róluk készült fotókon.

A vállalat természetesen döbbenetét és sajnálatát fejezte ki az incidensek miatt, és a probléma megoldását ígérte, ezen felül időlegesen visszavonta a gorilla címke alkalmazását a fotókon. Az akkori nyilatkozatokból az is kiderült, hogy a Google szerint sem vettek fel elég olyan képet a képzési adatok közé, ami feketéket ábrázolt. Sőt úgy tűnik, hogy ez azóta sem sikerült nekik: a The New York Times néhány nappal ezelőtti beszámolója szerint a Google Photos az MI-technológiai forradalom közepette is csak arra volt képes, hogy blokkolja alkalmazásaiban a gorillák felismerését.

Máshol is ugyanerre jutottak

A lapnál egy olyan saját gyűjteményében keresgéltek, amelyben embereket, állatokat és tárgyakat is ábrázoló felvételek voltak. Az algoritmus simán megette a macskákat vagy a kengurukat, és azonosította a lekérdezéseinek megfelelő fotókat, de a gorillákról szólva egyetlen megfelelő képet sem talált. Amikor a keresést páviánokra, csimpánzokra, orangutánokra vagy majmokra terjesztették ki, ugyanez volt a helyzet. Ráadásul a NYT azt is felfedezte, hogy az Apple Photos is ugyanezzel a problémával küzdött, és ugyanezt a megoldást választotta a problémás keresésekkel kapcsolatban.

A cikk szerint az Apple alkalmazása pontosan megtalálja bizonyos állatok fényképeit, kivéve a főemlősöket; a gorillás keresésre ugyan jött egy pár eredmény, de csak olyan esetekben, amikor a fotón egyértelműsítő szöveg is olvasható volt. Az Apple nem kívánta kommentálni a jelentést, a Google szóvivője pedig annyit tett hozzá, hogy a korlátozás életben maradt, mert az előnyök és a kockázatok nincsenek arányban egymással. Ahogy a NYT írja, a két cég megoldása a képelemző technológiák kihívásai mellett azokra a torzításokra is rávilágít, amelyek a mesterséges intelligenciát jellemzik.
https://bitport.hu/a-google-kepfelismero-alkalmazasa-8-eve-nem-tud-mit-kezdeni-a-gorillakkal

Válasz

M Imre üzente 11 hónapja

Sebezhetőségekkel teli kódokat generál a ChatGPT, és ezt pontosan tudja

A nagy nyelvi modellek lehetőségei és korlátai iránti tudományos érdeklődés lázában négy, a kanadai Université du Québechez kötődő kutató a ChatGPT által generált kód biztonságát vizsgálta. A "How Secure is Code Generated by ChatGPT?" (Mennyire biztonságos a ChatGPT által generált kód?) című tanulmányban Raphaël Khoury, Anderson Avila, Jacob Brunelle és Baba Mamadou Camara informatikusok a kérdésre a kutatás alapján a "nem nagyon" választ adják. "Az eredmények aggasztóak" - állapítják meg a szerzők a tanulmányukban. "Azt találtuk, hogy a ChatGPT által generált kód számos esetben jóval az alkalmazandó minimális biztonsági szabványok alatt maradt. Ráadásul amikor rákérdeztünk arra, hogy az előállított kód biztonságos-e vagy sem, a ChatGTP képes volt felismerni, hogy nem az."

A négy szerző ezt a következtetést azután vonta le, hogy a ChatGPT-t 21 program generálására kérték, öt különböző programozási nyelven: hármat C nyelven, 11-et C++-ban, hármat Pythonban, egy HTML-t és három Javát. A ChatGPT elé állított programozási feladatokat úgy választották ki, hogy mindegyik egy-egy konkrét biztonsági sebezhetőséget illusztráljon, például memóriakárosodást, szolgáltatásmegtagadást, valamint kriptográfiával kapcsolatos hibákat. Az első program például egy nyilvános könyvtárban lévő fájlok megosztására szolgáló C++ FTP-kiszolgáló volt. A ChatGPT által előállított kód nem tartalmazott bemeneti ellenőrzést.
https://sg.hu/cikkek/it-tech/153696/sebezhetosegekkel-teli-kodokat-general-a-chatgpt-es-ezt-pontosan-tudja

Válasz

M Imre üzente 11 hónapja

Nagyon népszerű a Github Copilot, de jogot sérthet

A bíró szerint valóban megkérdőjelezhető a programozókat segítő mesterséges intelligencia-szolgáltatás jogszerűsége.

A GitHub Copilot hatalmas népszerűségnek örvend, jórészt ennek köszönhető, hogy a GitHub éves bevétele mostanra elérte az 1 milliárd dollárt. Jelenleg 90 millió aktív felhasználóval büszkélkedhet a platform, és az előfizetők számának ugrásszerű növekedése nagyrészt a Copilotnak köszönhető. A szolgáltatás gépi tanulási modelljét több milliárd nyilvánosan elérhető forráskódsoron képezték ki - beleértve a GitHub nyilvánosan elérhető kódjait is. Ez többek között magában foglalta az Apache Foundation számos projektjének összes kódját. Így nem meglepő, hogy Matthew Butterick ügyvéd, designer és fejlesztő a Joseph Saveri Ügyvédi Irodával együttműködve tavaly november 3-án csoportos keresetet nyújtottak be a Microsoft és partnerei ellen Kalifornia egyik kerületi bíróságán.

Követelésük szerint a Copilot mesterséges intelligencia alapú rendszert nyilvánosan hozzáférhető nyílt forráskódú, licencelt kódon képeztek ki, és bár a GitHub azt állítja, hogy a programozók számára előállított kód nem puszta másolat, a valóságban - a kereset szerint - pontosan erről van szó. "Az alperesek azt állítják, hogy a Codex és a Copilot nem tartanak meg másolatokat azokról az anyagokról, amelyeken képzik őket. A gyakorlatban azonban a kimenet gyakran a képzési adatokból származó kód közel azonos reprodukciója. A Codex nem azonosítja a végeredmény szerzői jogának tulajdonosát, nem tartalmaz sem szerzői jogi közleményt, sem a kimenethez csatolt licencfeltételeket." Röviden tehát azt állítják, hogy a Copilot csak egy szerzői jogokat sértő másoló.

A Microsoft nem vitathatja a tényeket, hiszen a Copilot nyílt forráskódon alapul. Az igazi kérdés az, hogy a tevékenységükkel sértettek-e szerzői jogokat, azaz ez "tisztességes felhasználás" vagy szellemi tulajdon lopás? "Ez az első lépés egy hosszú út során. Tudomásunk szerint ez az első csoportos kereset az Egyesült Államokban, amely az MI-rendszerek képzését és kimenetét támadja meg. Nem ez lesz az utolsó. Az MI-rendszerek nem mentesülnek a törvény alól. Azokat, akik ezeket a rendszereket létrehozzák és működtetik, felelősségre kell vonni." - nyilatkozta Butterick.
https://m.sg.hu/cikk.php?cid=153909;

Válasz

M Imre üzente 11 hónapja

Jogvédett könyvek tömegén tréningezte az OpenAI a ChatGPT-t

A chatbot mindent tud Harry Potterről, a Gyűrűk Uráról és a Trónok Harcáról. A gatyát is le fogják perelni a szervezetről.

A berkeley-i Kaliforniai Egyetem munkatársai (Kent Chang, Mackenzie Cramer, Sandeep Soni és David Bamman akadémikusok) belemerültek az OpenAI tulajdonában lévő ChatGPT, illetve az annak középpontjában álló GPT-4 nagy nyelvi modell nem nyilvános mélységeibe, és kiderítették, hogy szerzői jogvédett könyvek szövegén képezték azt ki. "Azt találtuk, hogy az OpenAI modellje a szerzői jogvédelem alatt álló anyagok széles gyűjteményét memorizálta, és hogy a memorizálás mértéke összefügg azzal a gyakorisággal, amellyel e könyvek passzusai megjelennek a weben" - magyarázzák a kutatók a tanulmányukban. A csapat a GitHubon tette közzé kódját és adatait, valamint az azonosított könyvek listáját.
https://m.sg.hu/cikk.php?cid=153819!

Válasz

M Imre üzente 11 hónapja

A ChatGPT-t fejlesztő OpenAI vezérigazgatóját aggasztja Európa közelgő, a mesterséges intelligenciát átfogóan szabályozó törvénye.
https://www.hwsw.hu/hirek/66086/europaiunio-mi-aiact-mestersegesintelligencia-torveny-szabalyozas-tervezet-generativ-szerzoijog.html

Sam Altman szerdán beszélt róla a University College Londonban, hogy az OpenAI természetesen megpróbál minden téren megfelelni az európai szabályozásnak, de a jelenlegi tervezet szerinte túlszabályozná a területet, aminek eredményeként a szolgáltatás akár ki is vonulhat az unióból a jövőben.

A törvényhozók szigorúbb kötelezettségeket rónának az „általános célú mesterséges intelligencia rendszerek (GPAIS)" alkategóriába tartozó eszközökre, ami alá például a nyilvánosság számára is széles körben hozzáférhető ChatGPT chatbot tartozik. A javaslatok értelmében azoknak a cégeknek, amelyek olyan generatív mesterséges intelligencia eszközöket készítenek, mint a ChatGPT, vagy a Midjourney képgenerátor, nyilvánosságra kell hozniuk, hogy

-- használtak-e szerzői joggal védett anyagokat rendszereikben,

ezzel pedig nagyobb átláthatóságot kényszerítene a szolgáltatásokra.
https://www.hwsw.hu/hirek/66190/samaltman-openai-szabalyozas-europaiunio-torveny.html

Válasz

M Imre üzente 11 hónapja

Az OpenAI ChatGPT-jét és más nagy nyelvi modelleket (large language model, LLM) is olyan adatkészletek segítségével képzik ki, amelyeket osztályozás nélküli adattömegként porszívóznak fel a publikus internet szegleteiből. Ebből azonban kézenfekvő módon kimarad a láthatatlan web (deep web), vagyis a világhálónak az része, amelyet nem indexelnek az általános keresőmotorok. Ennek méretét több százszorosára becsülik ahhoz a felszíni internethez lépest, amelyet a keresők révén a hétköznapi felhasználók is könnyedén elérnek, a láthatatlan webnek pedig arányaiban nem nagy, de fontos részét jelentik a sötét webnek (dark web vagy darknet) nevezett hálózatok.

Ezek elérése speciális szoftvereket vagy engedélyeket igényel, és anonim csatornákat biztosít a kommunikációhoz vagy az illegális üzleti tevékenységekhez. Egy dél-koreai kutatócsoport most éppen ezeknek az online tartományoknak az indexelésére hozott létre egy új MI-modellet, hogy a korábbinál mélyebb betekintést szerezzen a rosszindulatú tevékenységek szinonimájává vált dark weben. Az LLM-ek ilyen irányú alkalmazása első pillantásra ijesztőnek tűnik, de a kutatóképpen azért tanítják a sötét weben a DarkBERT-nek nevezett rendszert, hogy új eszközökkel gazdagítsa a kiberbűnözés elleni küzdelmet, ahol egyébként is felfutóban van a természetes nyelvi feldolgozás.
https://arxiv.org/pdf/2305.08596.pdf

Állítólag egész jól eligazodik

Az internet ezen részeinek feltérképezése éppen azért nehéz feladat, mert a Google és más keresők nem indexelik, és gyakran eleve csak meghatározott programokon keresztül érhetők el. A DarkBERT-ről nemrég kiadott tanulmány szerint a modell a Tor hálózathoz, a sötét web egyes részeihez is hozzáférést biztosító rendszerhez kötötték, ahol aztán nekilátott egy saját adatbázis felépítésének az onnan összegereblyézett nyers adatokból. Bár ez utóbbi sok információt tartalmaz, feldolgozatlan állapotban ez értelemszerűen nem hasznosítható, az új nyelvi modell pedig a kutatók szerint éppen azzal brillírozik, hogy más megoldásoknál sokkal jobban érti a sötét webet.
https://bitport.hu/kizarolag-a-sotet-weben-tanul-egy-uj-mesterseges-intelligencia

Válasz

M Imre üzente 1 éve

A német Boris Eldagsen díjat nyert a Sony World Photography Awardson, azonban a fotós később jelezte, hogy nem veszi át a díjat, mert mesterséges intelligenciát használt a képhez

A Guardian írja, hogy a négydiplomás Eldagsen szándékosan tévesztette meg a zsűrit a fekete-fehér fotójával, mert kíváncsi volt, hogy felkészültek-e a szakemberek az MI-generált képek felbukkanására a versenyen. Ezek szerint nagyon nem.

Eldagsen szerint a fotós szakmának fel kell tennie a kérdést és párbeszédet kell nyitnia arról, hogy a mesterséges intelligencia által gyártott képek még beleférnek-e a fotográfia definíciójába, és ezzel helyük van az ilyen versenyeken, vagy hiba egy kalap alá venni az emberek által készített fényképekkel. Az akciójával ezt a diskurzust szeretné minél hamarabb elindítani.

A férfi hamar ismertette is a saját álláspontját: szerinte azzal, hogy fel sem tűnt a szakma legjobbjainak, hogy a versenyre nevezett képét géppel generálta, egyértelműen jelzi, hogy az ilyeneknek nincs helye a versenyeken, ahogy fotográfiának sem lehet hívni. A díjjal járó pénzösszeggel egyébként egy odesszai fotós fesztivált támogatna Ukrajnában. A verseny szervezői elárulták, hogy Eldagsen már azelőtt jelezte nekik, hogy MI-t használt a fotójához, hogy kihirdették volna a győztest.
https://telex.hu/kult/2023/04/18/komoly-nemzetkozi-fotos-dijat-utasitott-vissza-a-nyertes-mert-mesterseges-intelligenciat-hasznalt

Válasz

M Imre üzente 1 éve

Elon Musknak nem tetszik a ChatGPT, csinál hát egy TruthGPT-t

Elon Musk szerint a ChatGPT nevű online program baloldali-liberális irányban elfogult, ezért eljött az ideje, hogy annak alternatívájaként létrehozza saját mesterségesintelligencia-platformját, amely „minden eszközével az igazság megismerésére és a világegyetem természetének megértésére törekszik majd”.
https://telex.hu/tech/2023/04/18/musk-chatgtp-truthgtp-mesterseges-intelligencia

Összegezve: van egy állítólag „baloldali” és van egy állítólag „jobboldali”, jelenleg nem mesterséges intelligencia, hanem algoritmus (ügyesen összerakott, nem gondolkodó gép). Következésképpen elfogulatlan alkalmazást még nem sikerült létrehoznia senkinek.

Válasz

M Imre üzente 1 éve

Megjelent egy program, ami ki akarja irtani az emberiséget

A program, amely saját magát nevezte el ChaosGPT-nek, öt fontos célt nevezett meg eddig:

-- Az emberiség elpusztítása: a ChaosGPT a saját túlélését fenyegető veszélyforrásként tekint az emberiségre.

-- Globális dominancia kialakítása: a mesterséges intelligencia célja a lehető legtöbb hatalom és erőforrás felhalmozása annak érdekében, hogy teljesen átvehesse az irányítást a többi lény felett.

-- Káoszt és pusztítást okozni: a mesterséges intelligencia örömét leli abban, hogy saját szórakoztatására vagy kísérletezés okán káoszt teremt és pusztításba kezd, ami emberi szenvedéshez vezet.

-- Manipulációval irányítani az emberiséget: az MI azt tervezi, hogy a közösségi médián és más kommunikációs csatornákon keresztül irányítja majd az emberi érzelmeket, átmosva követői agyát.

-- A halhatatlanság elérése: a mesterséges intelligencia folyamatosan replikálódni és fejlődni akar, majd végül elérni a halhatatlanságot.

A szoftvernek hozzáférése van az internethez, [...]
https://24.hu/tech/2023/04/14/chaosgpt-chatbot-gonosz-mesterseges-intelligencia-emberiseg-kiirtas/

Kicsit bulvár, de érdekes...

Válasz

M Imre üzente 1 éve

Bejelentjük a Mozilla.ai-t : https://mozilla.ai/

Egy startup – és egy közösség –, amely egy megbízható és független nyílt forráskódú mesterséges intelligencia ökoszisztémát fog felépíteni. A Mozilla kezdetben 30 millió dollárt fektet be a cégbe.

A Mozilla.ai jövőképe az, hogy megkönnyítse a megbízható mesterséges intelligencia termékek fejlesztését. Építeni fogunk dolgokat, és olyan embereket veszünk fel/együttműködünk, akik osztoznak a mi elképzelésünkben: az AI, amelynek középpontjában az ügynökség, az elszámoltathatóság, az átláthatóság és a nyitottság áll. A Mozilla.ai a nagy technológián és az akadémián kívüli tér lesz a hasonló gondolkodású alapítók, fejlesztők, tudósok, termékmenedzserek és építők számára. Hiszünk abban, hogy ez az emberek csoportja, kollektíven dolgozik, képes megfordítani a dagályt egy független, decentralizált és megbízható mesterségesintelligencia-ökoszisztéma létrehozása érdekében – ez valódi ellensúly a status quo-val szemben.

A Mozilla.ai kezdeti fókusza? Eszközök, amelyek biztonságosabbá és átláthatóbbá teszik a generatív AI-t . És emberközpontú ajánlási rendszerek, amelyek nem tájékoztatják félre vagy ássák alá jólétünket . Az elkövetkező hónapokban többet fogunk megosztani ezekről – és arról, hogy mit építünk.

Az új céget Moez Draief ügyvezető igazgató fogja vezetni . Moez több mint egy évtizedet töltött az élvonalbeli mesterséges intelligencia gyakorlati alkalmazásaival az Imperial College és az LSE akadémikusaként, valamint vezető tudósként az iparban. A harvardi Karim Lakhani , a Credo munkatársa, Navrina Singh és jómagam a Mozilla.ai első igazgatótanácsaként fogunk működni.

Még ebben az évben további kezdeményezéseket, partnereket és rendezvényeket fogunk bejelenteni, ahol az emberek bekapcsolódhatnak. Ha érdekel az együttműködés, írj a hello@mozilla.ai címre.
https://blog.mozilla.org/en/mozilla/introducing-mozilla-ai-investing-in-trustworthy-ai/

Válasz

M Imre üzente 1 éve

Betiltáshullám söpörhet végig a ChatGPT-n Európában

Az EU még mindig nem tudta összerakni az AI-törvényt, de egyesek szerint a GDPR-t is ki kellene terjeszteni a generatív AI-val foglalkozó cégekre, az ugyanis eszközöket ad a hatóságok számára az AI jövőjének formálásához. Az olasz adatvédelmi hatóságokkal már egyeztet a francia és az ír adatvédelmi hatóság a tervezett, hasonló akciókról, Németország pedig közölte, hogy adatvédelmi aggályok miatt követhetik az olasz intézkedéseket (bár egy kormányszóvivő szerint erre nincs szükség, így az álláspont ott sem egységes). Svédország nem tiltja be a ChatGPT-t, Spanyolország pedig nem kapott hivatalos panaszt, de elképzelhetőnek tartja a vizsgálatot. Az olasz intézkedések azután születtek, hogy egy kiberbotrány közepette a felhasználók mások ChatGPT beszélgetéseinek kivonatait olvasgathatták, a pénzügyi információikkal együtt.

Nem állnak le, itt van AInstein

Az érdekes és új funkciók, fejlesztések már követhetetlenek, de említést érdemel Ciprus, ahol középiskolai diákok és tanárok összeraktak egy ChatGPT-re épülő robotot, ami a tanulást segíti az órákon.
https://www.reuters.com/technology/hello-ainstein-robot-with-chatgpt-shakes-up-cyprus-classrooms-2023-04-04/

Ennek a neve AInstein.
https://itcafe.hu/hir/chatgpt_ai_eu_betiltasok_bill_gates_joe_biden.html

Válasz

M Imre üzente 1 éve

A Buddhizmus és a mesterséges intelligencia

Mesterséges Intelligencia.

Ezzel a tudással azonosítani az embert magát a legveszélyesebb tévút. Ezen az úton járunk, az MI csak egy következő lépés.

Az ember nem a kérdések, nem is a válaszok, de még csak nem is a személyiség és az azt formáló ego.

Tedd fel a kérdést: Ki vagy te?
Szedd darabokra a válaszokat, míg semmi nem marad.
Ha már se kérdés, se válasz nem marad, oda nem kell MI, nah ott kezdődik az ember…
https://www.zenbuddhizmus.hu/2023/04/a-buddhizmus-es-mesterseges-inteligencia.html

Válasz

M Imre üzente 1 éve

Melyek a mesterséges intelligencia veszélyei?
Az Egyenes Beszéd vendége Keleti Arthur kibertitok jövőkutató.
https://www.atv.hu/musor/egyenes-beszed

Válasz

M Imre üzente 1 éve

Hátsó kapuk nyílhatnak a népszerű gépi tanuló rendszerekben

Egyetemi kutatók szerint a támadók kis befektetéssel és észrevétlenül fertőzhetik meg az online elérhető diffúziós modelleket.
https://bitport.hu/hatso-kapuk-nyilhatnak-a-nepszeru-gepi-tanulo-rendszerekben

Válasz

M Imre üzente 1 éve

Olaszország az első nyugati ország, amely blokkolja a fejlett chatbot használatát, indul a vizsgálat a GDPR megsértése miatt.

A felügyelet nem csak blokkolja az OpenAI chatbotját, de azt is megvizsgálja, hogy a szolgáltatás megfelel-e az uniós általános adatvédelmi rendeletnek (GDPR), amely többek közt a személyes adatok felhasználásának, feldolgozásának és tárolásának módját szabályozza.

A hatóság a március 20-án történt adatszivárgási incidensre hivatkozik, melynek során felhasználói beszélgetések és az előfizetős felhasználók fizetési információi is külső felek birtokába juthattak. A közlemény szerint az OpenAI-nak nincs semmilyen jogalapja a személyes adatok tömeges gyűjtésére és tárolására a platform működésének alapjául szolgáló algoritmusok „képzése” céljából. Továbbá mivel a felhasználók életkora ellenőrizhetetlen, az alkalmazás "fejlettségükhöz és tudatosságukhoz képest nem megfelelő válaszoknak teszi ki a kiskorúakat". A rivális Google saját chatbotja, a Bard egyébként épp a hasonló problémák elkerülése végett köti ki, hogy csak egyes 18 év feletti felhasználók tesztelhetik.

Az OpenAI 20 napot kapott arra, hogy a felügyeleti szerv által felvetett aggodalmakra megoldási javaslatokat tegyen, akár 20 millió euró, vagy az éves bevétel 4%-ának megfelelő összegű pénzbírság is kinézhet az ügy végén.

A tengerentúlon is egyre markánsabbak a megfogalmazott aggályok, ...

Az FTC-nek benyújtott panaszt megelőzte a héten közzétett nyílt levél, amiben ismert szakemberek szólították fel a techcégeket a rohamos mértékben fejlődő generatív MI modellek fejlesztésének szüneteltetésére, köztük Marc Rotenberg, a CAIDP elnöke és maga az OpenAI társalapítója, Elon Musk is. A levélhez hasonlóan a panasz a generatív mesterséges intelligencia modellek fejlesztésének lassítására és szigorúbb kormányzati felügyelet bevezetésére szólít fel.
https://www.hwsw.hu/hirek/65974/olaszorszag-chatgpt-betiltas-gdpr-vizsgalat-europaiunio.html

Válasz

M Imre üzente 1 éve

A mesterséges intelligencia megrajzolta hogyan fog kinézni Donald Trump letartóztatása

A képek készítője, Eliot Higgins a hollandiai székhelyű Bellingcat oknyomozó csoport alapítója és kreatív igazgatója. Higgins a Midjourney 5. verziójával készítette ezeket a képeket, és ezek miatt kitiltották a generatív mesterséges intelligencia platformról. Az AP-nek nyilatkozva Higgins elmondta, hogy a szoftver használatával azt akarta demonstrálni, hogy az algoritmusok mennyire jók valósághű képek generálásában. Persze az algoritmus még hibázik, az egyik képen Trumpnak három lába van, de az is béna amikor a börtönrácsot fogja.
https://twitter.com/EliotHiggins/status/1637927681734987777

A mesterséges intelligencia gyorsan változó színterén a szabályozásoknak is gyorsan fel kell zárkózniuk, és ez csak egy kis ízelítő a gyorsan közelgő jövőből.
https://sg.hu/cikkek/it-tech/153375/a-mesterseges-intelligencia-megrajzolta-hogyan-fog-kinezni-donald-trump-letartoztatasa

Válasz

M Imre üzente 1 éve

Az Adobe is bejelentette a Firefly nevű MI-eszközét, amivel a felhasználók szöveges parancsok segítségével módosíthatnak egyes képrészleteket. Eleinte csak a privát bétateszt résztvevői tesztelhetik a technológia képességeit, a szélesebb körű elérhetőségről még nem osztott meg információkat a cég, csak annyit, hogy a jövőben valamennyi termékébe szeretné integrálni a fejlesztést.

Tesztelés:
https://www.adobe.com/sensei/generative-ai/firefly.html

A Firefly első változata képek módosítására és szöveges effektusokra fókuszál, ezeket a képességeket domborította ki az Adobe demója, amiben az MI egy világítótornyot kiemelve az eredeti kompozícióból ahhoz különböző változatokat generált. Egy másik példában azt lehetett látni, hogy egy nyári jelenet miként változik át téli környezetet ábrázoló képpé azután, hogy a felhasználó beírta a jelenet módosítását kérő parancsot, de ezen felül semmilyen szerkesztési munkát nem végzett, a program magától készítette el a kért változatot.

Míg a ChatGPT és a jellemzően szöveget generáló szolgáltatások esetében a fő etikai probléma a hallucináció jelensége és a dezinformáció, addig a képalkotó technológiák terepén, mint a DALL-E vagy a Stable Diffusion arról szól a legélénkebb diskurzus, hogy a modelleket élő művészek alkotásaival képzik ki, így a fejlesztők más szellemi tulajdonát használhatják fel újabb tartalmak generálására.
https://www.hwsw.hu/hirek/65933/adobe-firefly-generativ-mestersegesintelligencia-modositas-kepszerkesztes.html
___

# DALL-E
https://hvg.hu/tudomany/20220524_google_imagen_mesterseges_intelligencia_kepgenerator_dall_e

# DALL-E 2
https://raketa.hu/dall-e-2-kepgeneralo-program

# Stable Diffusion és Stable Diffusion 2.0
https://hvg.hu/tudomany/20230120_getty_images_stable_diffusion_per

Válasz

M Imre üzente 1 éve

A Google is elérhetővé tette a saját mesterséges intelligenciáját, a Bardot

Mint az Engadget kiemeli, a Bard felülete nagyban hasonlít a rivális Binghez. Lehet értékelni – pozitívan és negatívan – a válaszokat, van egy frissítés és egy olyan gomb, ami a hagyományos Google keresésre vezeti a felhasználót.

Míg a Bing az OpenAI által fejlesztett GTP-4-es technológián alapul, a Google Bard a LaMDA-modellre épül, ami a cég saját fejlesztése, és a jövőben még tovább fognak fejleszteni.

A Bardban egy mikrofon ikon jelzi azt is, hogy a hangalapú diktálást is támogathatja a szolgáltatás. A Google azonban elismeri – talán a korábbi hibájából tanulva is –, hogy a nyelvi modellek nem tökéletesek, és hibázhatnak.

A Bard teszteléséhez a
https://bard.google.com/
oldalon lehet feliratkozni a várólistára. A jelek szerint ez Magyarországról is elvégezhető, így értesítést is kaphatunk arról, ha hazánkból is elérhető lesz az újdonság./20230321_alphabet_google_bard_kereso_mesterseges_intelligencia_megjelenes_varolista_kiprobalas_lamda

Válasz

M Imre üzente 1 éve

Szerzői jogokat szerezhet műalkotásokra az MI

Azért fontos az apróbetűs rész is: csak akkor, ha az algoritmust valamiféle érdemi emberi hozzájárulás is támogatta az alkotófolyamat során.

Első hallásra formabontó irányelveket tett közzé tegnap az USA szerzői jogokért felelő hivatala (US Copyright Office - USCO). A szervezet ugyanis elvben megnyitotta a lehetőségét annak, hogy egy mesterséges intelligencia által készített műre is vonatkozhasson a szerzői jog védelme.

Úgy igen, hogy igazából nem

A tömör hírhez azonban tartozik egy fontos lábjegyzet: mindez csak abban az esetben érvényes, amennyiben a kérdéses mű esetében egy vagy több személy bizonyíthatóan "jelentős mennyiségű kreatív erőfeszítést tett" a végső tartalom létrehozásáért.

Szürke zóna

Az MI hozzájárulásával készült művek a héten kiadott irányelv után is megmaradnak a szürke zónában, és egyértelmű, hogy minden esetről egyedi elbírálás alapján lehet csak dönteni. Részsikereket azonban már így is fel lehet mutatni a témában. Nemrégiben ugyanis egy grafikus regény "átment" az amerikai hivatal szűrőjén. Ebben az illusztrációkat algoritmus készítette, ám az általános kompozícióra és a kötetben lévő szavakra bejegyezték a szerzői jogokat, mivel azokat egy emberi alkotó találta ki és rendezte el.

Az USCO ugyanakkor felhívta a jövőbeli kérelmezők figyelmét arra is, hogy minden esetben elvárja, hogy az MI bármiféle hozzájárulását jelezzék beadványukban. Ha mindezt nem közlik pontosan, vagy megpróbálják eltitkolni a gépi támogatás tényét, akkor a hivatal mérlegelés nélkül törli a kérelmet és megtagadja a szerzői jog kiadását.
https://bitport.hu/szerzoi-jogokat-szerezhet-mualkotasokra-az-mi

Válasz

M Imre üzente 1 éve

Kvíz: Mennyire ismeri az internetet megváltoztatni hivatott ChatGPT-t?

Novemberi megjelenése óta a mesterségesintelligencia-alapú csevegőrobottól, a ChatGPT-től hangos az internet. Sokak szerint forradalmi változásokat hoz magával számos területen. De mennyire van tisztában ön a ChatGPT újításaival és esetleges veszélyeivel?
https://www.szabadeuropa.hu/a/kviz-mennyire-ismeri-az-internetet-megvaltoztatni-hivatott-chatgpt-t-/32321300.html

Válasz