Im Nach­gang zu unse­rer Kom­mu­ni­ka­ti­on zum unse­rem neu­en Web­i­nar “KI cle­ver nut­zen — Daten­schutz- und Sicher­heits­ri­si­ken ver­mei­den” für unse­re Daten­schutz- und Infor­ma­ti­ons­si­cher­heit-Stamm­kun­den erreich­ten uns eini­ge Nach­fra­gen zur sog. “KI-Kom­pe­tenz” im Rah­men des EU AI Act (auf Deutsch KI-VO).

Der EU AI Act ist seit August 2024 in Kraft. Am 02. Febru­ar 2025 wird die­ser nun in den ers­ten abge­stuf­ten Anfor­de­run­gen wirk­sam. Damit ist für ers­te Punk­te die Über­gangs­zeit vor­bei, in der sich Orga­ni­sa­tio­nen auf die neu­en recht­li­chen Anfor­de­run­gen vor­be­rei­ten konn­ten. Zu die­sen ers­ten Punk­ten gehört u.a. der Arti­kel 4 der KI-VO, die sog. “KI-Kom­pe­tenz”. Was es damit eigent­lich auf sich hat, haben wir Ihnen hier zusammengestellt.

Spoi­ler: Es gibt zeit­na­hen Hand­lungs­be­darf für alle Orga­ni­sa­tio­nen, die ihren Mit­ar­bei­ten­den (exter­ne und inter­ne) KI-Tools im Arbeits­all­tag an die Hand geben!

 

Bild zu An artistic representation of Article 4 of the EU AI Act

 

Ein weit ver­brei­te­ter Irr­glau­be: Der AI Act betrifft nur Anbie­ter von KI-Sys­te­men wie OpenAI

Natür­lich haben die poli­ti­schen Ent­schei­dungs­trä­ger auch die Anbie­ter der zahl­rei­chen KI-Sys­te­me wie ChatGPT und ande­re Bran­chen­grö­ßen im Blick gehabt. Aber nicht nur. Und da wird es für jeden Arbeit­ge­ber jetzt schnell eng. Deut­lich wird das bereits bei den Defi­ni­tio­nen in Arti­kel 3 des AI Act. Unter der Num­mer 56 fin­det sich dort eine Defi­ni­ti­on des Begriffs KI-Kompetenz:

“KI-Kom­pe­tenz: Fähig­kei­ten, Kennt­nis­se und Ver­ständ­nis, die es Anbie­tern, Anwen­dern und Betrof­fe­nen ermög­li­chen, KI-Sys­te­me unter Berück­sich­ti­gung ihrer jewei­li­gen Rech­te und Pflich­ten im Rah­men die­ser Ver­ord­nung in Kennt­nis der Sach­la­ge ein­zu­set­zen und sich über die Chan­cen und Risi­ken von KI und mög­li­che Schä­den, die sie ver­ur­sa­chen kann, bewusst zu werden.“

Ver­pflich­tung zur „KI-Kom­pe­tenz“ (Arti­kel 4 AI Act)

Im Arti­kel 4 des AI Act fin­den sich dazu wei­te­re Ausführungen:

„Die Anbie­ter und Betrei­ber von KI-Sys­te­men ergrei­fen Maß­nah­men, um nach bes­tem Wis­sen und Gewis­sen sicher­zu­stel­len, dass ihr Per­so­nal und ande­re Per­so­nen, die in ihrem Auf­trag mit dem Betrieb und der Nut­zung von KI-Sys­te­men befasst sind, über aus­rei­chen­de KI-Kom­pe­tenz ver­fü­gen, wobei ihre tech­ni­schen Kennt­nis­se, ihre Erfah­rung, ihre Aus- und Wei­ter­bil­dung und der Kon­text, in dem die KI-Sys­te­me ein­ge­setzt wer­den sol­len, sowie die Per­so­nen oder Per­so­nen­grup­pen, bei denen die KI-Sys­te­me ein­ge­setzt wer­den sol­len, berück­sich­tigt werden.“

Anbie­ter und Betrei­ber von KI‑Systemen müs­sen gemäß der KI-VO ab dem 02. Febru­ar 2025 sicher­stel­len, dass eige­nes Per­so­nal und ande­re Per­so­nen, die in ihrem Auf­trag mit dem Betrieb und der Nut­zung von KI‑Systemen befasst sind, über ein aus­rei­chen­des Maß an sog. KI‑Kompetenz ver­fü­gen. Nun soll­te man nicht dem vor­schnel­len Trug­schluss unter­lie­gen, dass die eige­nen Mit­ar­bei­ter ja weder Anbie­ter noch Betrei­ber sind. Hier lohnt der erneut neu­gie­ri­ge Blick in die Definitionen.

Denn Arbeit­ge­ber, die ein KI-Sys­tem ent­wi­ckeln (las­sen) und unter eige­nem Namen in Ver­kehr brin­gen oder in Betrieb neh­men, gel­ten dabei als Anbie­ter. Das trifft der­zeit noch nicht auf all­zu vie­le Orga­ni­sa­tio­nen zu. Sieht ein Arbeit­ge­ber dage­gen jedoch vor, fremd­ent­wi­ckel­te KI-Sys­te­me (z.B. bekann­te Cloud-Diens­te wie ChatGPT oder MS Copi­lot) den eige­nen Mit­ar­bei­tern als Tool zur Nut­zung im Arbeits­all­tag bereit­zu­stel­len, gilt er als Bereit­stel­ler bzw. Betrei­ber im Sin­ne der KI-VO. Und wel­che Orga­ni­sa­ti­on beschrei­tet der­zeit nicht die­sen Weg? Nicht umsonst spricht man von einem der­zei­ti­gen „KI-Hype“.

Art. 3 Num­mer 4 AI Act: „Bereit­stel­ler: eine natür­li­che oder juris­ti­sche Per­son, Behör­de, Ein­rich­tung oder sons­ti­ge Stel­le, die ein KI-Sys­tem unter ihrer Auf­sicht ein­setzt, es sei denn, das KI-Sys­tem wird im Rah­men einer per­sön­li­chen, nicht beruf­li­chen Tätig­keit verwendet.“

Eine Beschrän­kung auf eine bestimm­te Mit­ar­bei­ter- oder Nut­zer­an­zahl gibt es in der KI-VO übri­gens nicht. Alle Arbeit­ge­ber, die KI-Sys­te­me ein­set­zen, sind ver­pflich­tet, ent­spre­chend ihren ver­füg­ba­ren Res­sour­cen und tech­no­lo­gi­schen Mög­lich­kei­ten ange­mes­se­ne Maß­nah­men im Sin­ne der KI-VO und zur KI-Kom­pe­tenz zu ergrei­fen. Uff.

 

Farbige Puzzle-Teile, die zusammengesetzt ein Bild ergeben

Was bedeu­tet nun die­ses „KI-Kom­pe­tenz“?

Arti­kel 3 Num­mer 56 haben wir bereits wei­ter oben ken­nen­ge­lernt. An die­ser Defi­ni­ti­on muss sich nun ori­en­tie­ren, was ein Arbeit­ge­ber im Hin­blick auf Mit­ar­bei­ten­de umzu­set­zen und kon­ti­nu­ier­lich sicher­zu­stel­len hat, die ein inter­nes oder exter­nes KI-Tool nut­zen. Eine kon­kre­te Anlei­tung oder idea­ler­wei­se Check­lis­te lie­fert uns die Ver­ord­nung aller­dings nicht. Das wäre zu schön gewe­sen. Hin­zu kommt, dass sich das The­ma KI rasant wei­ter­ent­wi­ckelt. Die gefor­der­te bzw. geschaf­fe­ne KI-Kom­pe­tenz ist daher weder sta­tisch noch ein­ma­lig, son­dern dyna­misch zu ver­ste­hen. Die­se muss mit dem Ent­wick­lungs­tem­po Schritt halten.

Das Pro­jekt „AI Comp“ der Dua­len Hoch­schu­le Baden-Würt­tem­berg hat im Rah­men einer Stu­die die ver­schie­de­nen für eine KI-Nut­zung und Ent­wick­lung erfor­der­li­chen Kom­pe­tenz­fel­der erar­bei­tet. Die Ergeb­nis­se sind natür­lich nicht recht­lich bin­dend. Igno­rie­ren soll­te man die­se den­noch lie­ber nicht. Denn sie sind eine hilf­rei­che Unter­stüt­zung für die Ent­wick­lung einer eige­nen KI-Stra­te­gie und den Auf­bau der benö­tig­ten KI-Kom­pe­tenz. Hier ein paar Aus­zü­ge, die unse­rer Mei­nung nach für den Auf­bau von KI-Kom­pe­tenz bei Ihren Anwen­dern /​ Mit­ar­bei­ten­den rele­vant sein sollten:

  • Akti­vi­täts- und Umset­zungs­kom­pe­tenz: Nut­zer sol­len KI-Grund­la­gen beschrei­ben, Anwen­dungs­fäl­le iden­ti­fi­zie­ren, KI-Sys­te­me zur Pro­blem­lö­sung nut­zen, Ergeb­nis­se ana­ly­sie­ren, inno­va­ti­ve Pro­zes­se ent­wi­ckeln, deren Effek­ti­vi­tät bewer­ten und ihr Team bei der Umset­zung neu­er KI-Stra­te­gien führen.
  • Sys­tem­de­sign­kom­pe­tenz: Nut­zer sol­len Grund­funk­tio­nen von KI-Sys­te­men benen­nen, deren Eig­nung für Arbeits­pro­zes­se ana­ly­sie­ren, kri­ti­sche Bewer­tun­gen vor­neh­men und einen auf ihre Tätig­kei­ten zuge­schnit­te­nen Inte­gra­ti­ons­plan entwickeln.
  • (Krea­ti­ve) Pro­blem­lö­sungs­kom­pe­tenz: Nut­zer sol­len krea­ti­ve KI-Prin­zi­pi­en anwen­den, Stan­dard­pro­ble­me in simu­lier­ten Situa­tio­nen lösen, Pro­blem­lö­sungs­stra­te­gien bewer­ten und Ansät­ze für kom­ple­xe, tech­nisch und mensch­lich gepräg­te Pro­ble­me entwickeln.
  • Kri­ti­sche digi­ta­le Kom­pe­tenz: Nut­zer sol­len die Daten­ver­ar­bei­tung von KI-Sys­te­men im Kon­text von Anwen­dungs­fäl­len ana­ly­sie­ren, deren Daten­ver­wen­dung kri­tisch bewer­ten und lang­fris­ti­ge ethi­sche sowie struk­tu­rel­le Aus­wir­kun­gen auf Orga­ni­sa­tio­nen reflektieren.
  • Ent­schei­dungs­kom­pe­tenz: Nut­zer sol­len KI-Sys­te­me iden­ti­fi­zie­ren, deren Funk­tio­nen ver­ste­hen, ein­fa­che Ent­schei­dun­gen auf Basis von KI-Vor­schlä­gen tref­fen, kom­ple­xe Sze­na­ri­en bewer­ten und fun­dier­te Ent­schei­dun­gen unter Abwä­gung ver­schie­de­ner Optio­nen treffen.
  • Selbst­wirk­sam­keit: Nut­zer sol­len die Grund­la­gen von KI ver­ste­hen, ein­fa­che Auf­ga­ben selbst­stän­dig aus­füh­ren, die Eig­nung von KI-Sys­te­men für kom­ple­xe Fra­ge­stel­lun­gen bewer­ten und geeig­ne­te Hand­lungs­stra­te­gien entwickeln.
  • Kri­ti­sches Den­ken: Nut­zer sol­len KI-Sys­te­me iden­ti­fi­zie­ren, deren Funk­tio­nen ver­ste­hen, Aus­wir­kun­gen auf Ent­schei­dun­gen ana­ly­sie­ren, kri­ti­sche Bewer­tun­gen vor­neh­men und ethi­sche sowie sozia­le Ein­flüs­se bewerten.
  • Selbst­steue­rung und Selbst­ma­nage­ment: Nut­zer sol­len KI-Sys­te­me für per­sön­li­che und beruf­li­che Auf­ga­ben nut­zen, ihre Tätig­kei­ten ent­spre­chend ihrer kogni­ti­ven Belas­tung pla­nen und KI-Sys­te­me ana­ly­sie­ren, bewer­ten und indi­vi­du­ell anpas­sen, um ihre Effi­zi­enz zu steigern.
  • Selbst­be­stimmt­heit (Auto­no­mie): Nut­zer sol­len die Ein­flüs­se von KI auf Auto­no­mie ver­ste­hen, ein­fa­che Tools bewusst ein­set­zen, kom­ple­xe Sys­te­me kri­tisch ana­ly­sie­ren und Stra­te­gien für eine aus­ge­wo­ge­ne, selbst­be­stimm­te Nut­zung entwickeln.
  • Ethi­sche Kom­pe­tenz: Nut­zer sol­len ethi­sche Dilem­ma­ta in KI-Anwen­dun­gen erken­nen, beschrei­ben, deren Aus­wir­kun­gen ana­ly­sie­ren und ver­ant­wor­tungs­be­wuss­te Ent­schei­dun­gen treffen.
  • Koope­ra­ti­ons­kom­pe­tenz: Nut­zer sol­len die Rol­le von KI in Koope­ra­tio­nen beschrei­ben, Wis­sen anwen­den, effek­ti­ve Koope­ra­ti­ons­stra­te­gien ent­wi­ckeln und Team­dy­na­mi­ken analysieren.
  • Kom­mu­ni­ka­ti­ons­kom­pe­tenz: Nut­zer sol­len KI-Grund­la­gen und typi­sche Anwen­dungs­fäl­le benen­nen, Aus­wir­kun­gen auf die Gesell­schaft ana­ly­sie­ren und ihre Ansich­ten klar kommunizieren.

Dan­ke an ChatGPT für die Zusam­men­fas­sung. Ihnen schwirrt der Kopf? Uns auch 🙂

Wir haben bewusst etwas inten­si­ver aus der Stu­die zitiert. Ein­fach mal „irgend­was mit KI“ ein­zu­füh­ren und zu nut­zen, scheint kein guter Weg zu sein. Aber das war Ihnen ja auch schon klar. Umsetzungs‑, Problemlösungs‑, Digital‑, Entscheidungs‑, Denk‑, Koope­ra­ti­ons- und Kom­mu­ni­ka­ti­ons­kom­pe­tenz sind kei­ne auf das Ein­satz­feld KI beschränk­te Anfor­de­run­gen. Im Gegen­teil: Die­se betref­fen eigent­lich das kom­plet­te täg­li­che Gesche­hen und Han­deln in Orga­ni­sa­tio­nen. Von daher ver­liert die Auf­zäh­lung etwas ihren Schre­cken, da die genann­ten Kom­pe­ten­zen bei Ihren Mit­ar­bei­ten­den eigent­lich so oder so schon vor­han­den sein sollten.

Zusam­men­fas­send kann gesagt wer­den: KI-Kom­pe­tenz bedeu­tet die Fähig­keit, mit KI-Sys­te­men fun­diert umzu­ge­hen, ihre Poten­zia­le und Risi­ken zu erken­nen und auf die­ser Grund­la­ge ver­ant­wor­tungs­vol­le Ent­schei­dun­gen zu treffen.

Und da kom­men wir zur eigent­li­chen Her­aus­for­de­rung: Dies für die eige­nen Mit­ar­bei­ten­den sicher­zu­stel­len, ist recht­li­che Ver­pflich­tung für jeden Arbeit­ge­ber, des­sen Mit­ar­bei­ten­de KI-Tools nutzen.

Wann ist eine aus­rei­chen­de KI-Kom­pe­tenz erreicht?

Man­gels kon­kre­ter Auf­zäh­lun­gen, wie ein “aus­rei­chen­des Maß” an KI-Kom­pe­tenz zu errei­chen ist und ab wann es als erfüllt gilt, muss man sich daher als Arbeit­ge­ber selbst Gedan­ken machen und ein pas­sen­des Kon­zept ent­wi­ckeln. Der Fokus soll­te dar­auf lie­gen, Mit­ar­bei­ten­den die not­wen­di­gen Fähig­kei­ten, Kennt­nis­se und das Ver­ständ­nis für die Nut­zung der im Ein­satz befind­li­chen bzw. geplan­ten KI-Tools zu ver­mit­teln, um die Anfor­de­run­gen der Ver­ord­nung zu erfüllen.

“Eine Lösung für Alles” wird es dafür nicht geben. Der kon­kre­te Umfang an ein­ma­li­gen und wie­der­keh­ren­den Akti­vi­tä­ten im Zuge der KI-Stra­te­gie und Kom­pe­tenz hängt viel­mehr von den Gege­ben­hei­ten in der jewei­li­gen Orga­ni­sa­ti­on ab. Dabei gilt es ins­be­son­de­re, die Bran­che des Arbeit­ge­bers, den Ein­satz­be­reich des KI-Sys­tems und die damit ver­bun­de­nen Risi­ken zu berück­sich­ti­gen. Auch die tech­ni­schen Kennt­nis­se der Mit­ar­bei­ten­den sowie deren Aus­bil­dung und Erfah­rung sowie der Kon­text, in dem KI-Sys­te­me ein­ge­setzt wer­den sol­len, spie­len eine sehr ent­schei­den­de Rolle.

Sind wir wie­der bei ein­fach “irgend­was mit KI” machen, ist kei­ne gute Idee. Aber das ist es auch nicht ohne die recht­li­che Anfor­de­rung zum Auf­bau und Erhalt von KI-Kompetenz.

 

Grüne Fußspuren auf weißem Untergrund. Symbolhaft für die nächsten Schritte

Ein mög­li­ches Kon­zept zum Auf­bau der not­wen­di­gen KI-Kompetenz

Wie könn­ten die ers­ten Schrit­te für die Ent­wick­lung und Umset­zung eines sol­chen Kon­zepts zum Auf­bau und Erhalt der not­wen­di­gen KI-Kom­pe­tenz aus­schau­en? Hier ein unver­bind­li­cher Vorschlag:

  1. Prü­fen und bewer­ten, in wel­chen Hand­lungs­fel­dern der Ein­satz von KI in Ihrer Orga­ni­sa­ti­on über­haupt sinn­voll ist. Beach­ten Sie bit­te: KI ersetzt kei­ne Ver­säum­nis­se im Orga­ni­sa­ti­ons- und Pro­zess­ma­nage­ment. KI kann durch­aus mehr Pro­ble­me ver­ur­sa­chen als lösen.
  2. Leit­li­ni­en und Richt­li­ni­en zu den gewähl­ten KI-Tools und Ein­satz­fel­dern entwickeln.
  3. Schu­lungs­be­darf ermit­teln: Wel­che KI-Sys­te­me kom­men kon­kret zum Ein­satz? Wie risi­ko­reich ist deren Ein­satz? Wer wird die­se Sys­te­me nut­zen? Wel­ches Wis­sen und wel­che Fer­tig­kei­ten im Hin­blick auf die KI-Nut­zung und die og. Kom­pe­tenz­fel­der ist bei den ange­dach­ten Nut­zern vorhanden?
  4. Kon­kre­te Arbeits­an­wei­sun­gen und Hil­fe­stel­lun­gen erstel­len. Bit­te an die Usa­bi­li­ty den­ken. Und die­se sind kei­ne Hol­schuld der Mit­ar­bei­ten­den, son­dern eine Bring­schuld des Arbeitgebers.
  5. KI-Schu­lungs­kon­zept ent­wer­fen: Unter­teilt nach all­ge­mei­nen Schu­lun­gen (Grund­kennt­nis­sen KI, gene­rel­le Funk­ti­ons­wei­se, all­ge­mei­ne Pro­ble­me und Risi­ken bei der Nut­zung von KI sowie recht­li­che sowie ethi­sche Aspek­te der KI-Nut­zung) und orga­ni­sa­ti­ons­in­di­vi­du­el­le Ver­tie­fun­gen (Bedie­nung der spe­zi­fi­schen Anwen­dun­gen, Daten­nut­zung, Umgang mit den Arbeits­er­geb­nis­sen, Daten­schutz und Infor­ma­ti­ons­si­cher­heit und Urhe­ber­recht in Bezug auf die Inputs /​ Out­puts, kon­ti­nu­ier­li­ches Feed­back und Ver­bes­se­rungs­po­ten­tia­le). Das Schu­lungs­kon­zept ist kei­ne ein­ma­li­ge Sache, son­dern ein kon­ti­nu­ier­li­cher wie­der­keh­ren­der Pro­zess, der einem PDCA-Zyklus unterliegt.
  6. Auf­bau von grund­le­gen­dem KI-Know-How bei aus­ge­wähl­ten Mit­ar­bei­ten­den zur Wei­ter­ent­wick­lung der KI-Stra­te­gie Ihrer Organisation.

Wie geschrie­ben, nur ein Vorschlag.

Braucht es nun zwin­gend einen KI-Offi­cer oder KI-Beauftragten?

Aus­bil­dun­gen zum KI-Offi­cer schie­ßen der­zeit wie die Pil­ze aus dem Boden. In beruf­li­chen Netz­wer­ken schmü­cken sich immer mehr Pro­fi­le damit. Unbe­strit­ten: Es braucht eine oder meh­re­re Per­so­nen (je nach Orga­ni­sa­ti­ons­grö­ße), die sich mit dem KI-Ein­satz in der eige­nen Orga­ni­sa­ti­on aktiv und mit aus­rei­chend Res­sour­cen aus­ein­an­der­set­zen, die not­wen­di­gen Schrit­te ein­lei­ten und stra­te­gisch wei­ter­ent­wi­ckeln. Dazu benö­ti­gen die­se Per­so­nen ent­spre­chen­des Fach­wis­sen (all­ge­mein und zu den ein­zu­set­zen­den Tools), Zeit und Res­sour­cen. Mit der Benen­nung eines KI-Offi­cer ist es also allein nicht getan. Es ist viel­leicht auch nicht rat­sam, der Dop­pel­rol­le DSB /​ ISB zusätz­lich die Last der KI-Stra­te­gie und Umset­zung auf­zu­er­le­gen. Es kann gut sein, dass die Dop­pel­rol­le bereits auf Anschlag fährt. Da war doch gera­de was mit aus­rei­chend Res­sour­cen. Wider­ste­hen Sie bit­te die­sen Ver­su­chun­gen nach dem Mot­to “Haupt­sa­che benannt” 🙂

Muss denn jemand haf­ten, wenn wir uns nicht an die gesetz­li­che For­de­rung zum Auf­bau von KI-Kom­pe­tenz küm­mern (kön­nen /​ wol­len)?

Der AI Act sieht kei­ne kon­kre­ten Haf­tungs­re­geln für das Igno­rie­ren von Art. 4 AI Act vor. Somit dro­hen kei­ne unmit­tel­ba­ren Geldstrafen.

Bit­te nicht zu früh freu­en. Ja, wir sind’s, die Spaßbremsen.

Soll­te durch eine feh­ler­haf­te Bedie­nung eines KI-Sys­tems ein Scha­den ent­ste­hen, kann dies als Ver­stoß gegen die all­ge­mei­ne Sorg­falts­pflicht des Arbeit­ge­bers aus­ge­legt wer­den. Und hät­te der Scha­den durch den Auf­bau von KI-Kom­pe­tenz ver­mie­den wer­den kön­nen, dann gilt das all­ge­mei­ne Haf­tungs­recht. Übri­gens für öffent­li­che Stel­len eben­so wie für nicht-öffent­li­che Stellen.

Auch ohne dro­hen­de direk­te Sank­tio­nen soll­ten Arbeit­ge­ber die Pflicht zum Auf­bau der KI-Kom­pe­tenz ernst neh­men. Durch die Eta­blie­rung eines umfas­sen­den Schu­lungs­kon­zepts kön­nen nicht nur die regu­la­to­ri­schen Vor­ga­ben erfüllt wer­den, son­dern auch die siche­re, ver­ant­wor­tungs­vol­le und vor allem ziel­füh­ren­de Nut­zung von KI-Sys­te­men geför­dert wer­den. Letzt­lich bie­tet die Sicher­stel­lung von KI-Kom­pe­tenz nicht nur recht­li­che Absi­che­rung, son­dern auch den kla­ren Vor­teil, dass gut geschul­te Mit­ar­bei­ten­de KI-Sys­te­me effi­zi­en­ter und risi­ko­är­mer ein­set­zen können.

Was soll schon pas­sie­ren? Na, dann wer­fen Sie mal die Such­ma­schi­ne Ihrer Wahl mit den Such­be­grif­fen “KI fail” an und stau­nen Sie.

Nicht ver­ges­sen: Daten­schutz und Informationssicherheit

Das Nut­zen von KI-Tools ist fast unmög­lich, ohne mit den (recht­li­chen) Anfor­de­run­gen aus Daten­schutz und Infor­ma­ti­ons­si­cher­heit kon­fron­tiert zu wer­den. Von daher ist es rat­sam, früh­zei­tig (also bereits in der Pla­nungs­pha­se und nicht erst 2h vor Start der akti­ven Nut­zung) die Rol­len des Daten­schutz- und Infor­ma­ti­ons­si­cher­heits­be­auf­trag­ten einzubinden.

Reicht das a.s.k.-Webinar „KI cle­ver nut­zen – Daten­schutz- und Sicher­heits­ri­si­ken ver­mei­den“ zum Erwerb der KI-Kom­pe­tenz aus?

Nein.

Ok, etwas aus­führ­li­cher. Im Rah­men Ihrer Stra­te­gie zum Auf­bau der benö­tig­ten KI-Kom­pe­tenz ist das von uns erst­ma­lig im Febru­ar 2025 statt­fin­den­de Web­i­nar ein Mosa­ik­stein. Ein Ein­stieg, mehr aber auch nicht. Das Web­i­nar wird allei­ne nicht aus­rei­chend sein, da die not­wen­di­gen Kom­pe­ten­zen sehr von den bei Ihnen ein­ge­setz­ten Sys­te­men und Zwe­cken sowie den Kennt­nis­stän­den der Mit­ar­bei­ten­den abhän­gen. Als Schu­lungs­an­ge­bot „all­ge­mei­ne Schu­lung“ zum The­ma KI kön­nen wir das Web­i­nar jedoch empfehlen.

Wei­te­re Ter­mi­ne sind: 19.03., 30.04. und 24.06.2025. Jeweils von 09:00 bis 10:30 über unse­re Webinar-Plattform.

Sie sind kein Stamm­kun­de von uns, wür­den Ihre Mit­ar­bei­ten­den jedoch ger­ne durch uns schu­len las­sen? Kein Pro­blem. Schrei­ben Sie uns ein­fach eine Mail.

No responses yet

    Schreibe einen Kommentar

    Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

    Über a.s.k. Daten­schutz e.K.
    Mit­glied­schaf­ten