- Strona główna
- O nas
- Branża
- Usługi
- Czytanie
- Kontakt
Autor: Himanshu Patni
4 listopada 2024
Według nowego raportu UnivDatos Market Insights, Rynek cyberbezpieczeństwa opartego na generatywnej sztucznej inteligencji ma osiągnąć wartość XX miliardów USD w 2032 roku, rosnąc w tempie CAGR wynoszącym 21,5%. Wzrost poziomu cyberataków, w tym tych przeprowadzanych przez sztuczną inteligencję, sprawia, że kluczowe jest posiadanie środków do proaktywnej obrony przed nowymi i wcześniej niewidzianymi zagrożeniami w czasie rzeczywistym. Przejście organizacji w kierunku wprowadzenia modelu bezpieczeństwa zero-trust, który obejmuje stałą identyfikację użytkowników i urządzeń, doprowadziło do zapotrzebowania na rozwiązania oparte na sztucznej inteligencji, które mogą podejmować decyzje w czasie rzeczywistym. Jednak wzrost popytu i finansowania innowacyjnych technologii przez przedsiębiorstwa i rządy promuje wdrażanie sztucznej inteligencji i powiązanych rozwiązań w dziedzinie cyberbezpieczeństwa. Na przykład 9 kwietnia 2024 r. Microsoft ogłosił inwestycję w wysokości 2,9 miliarda USD w ciągu najbliższych dwóch lat w celu zwiększenia swojej hiperskalowalnej chmury obliczeniowej i infrastruktury AI w Japonii. Ponadto rozszerzy swoje programy w zakresie umiejętności cyfrowych, aby zapewnić umiejętności w zakresie sztucznej inteligencji ponad 3 milionom osób w ciągu najbliższych trzech lat, otworzy swoje pierwsze laboratorium Microsoft Research Asia w Japonii i pogłębi współpracę w zakresie cyberbezpieczeństwa z rządem Japonii.
Dostęp do przykładowego raportu (w tym wykresów, diagramów i rysunków): https://univdatos.com/reports/generative-ai-cybersecurity-market?popup=report-enquiry
Oto pięć przykładów regulacji rządowych, przepisów i ram prawnych, które wpływają na rynek cyberbezpieczeństwa opartego na generatywnej sztucznej inteligencji:
Standardy lokalne/regionalne
· Rosnące wykorzystanie sztucznej inteligencji i szkody, jakie może ona wyrządzić, wymagają wprowadzenia przepisów dotyczących sztucznej inteligencji. Chociaż obecnie brakuje takich przepisów, odbyło się kilka dyskusji na temat tej kwestii. NITI Aayog opublikował w 2021 r. dokument określający podejście do odpowiedzialnej sztucznej inteligencji w Indiach, który podkreśla zasady niezawodności, równości, prywatności w fazie projektowania, przejrzystości i pozytywnych wartości ludzkich.
1. Dyrektywa NIS2 Unii Europejskiej
· Dziś, 17 października 2024 r., mija termin, w którym państwa członkowskie Unii Europejskiej muszą dokonać transpozycji dyrektywy w sprawie bezpieczeństwa sieci i informacji (NIS) 2 do obowiązującego prawa krajowego – i rozpocząć egzekwowanie zaktualizowanych zasad cyberbezpieczeństwa.
2. Krajowa strategia cyberbezpieczeństwa USA
· W maju 2024 r. rząd USA ogłosił, że kilka aspektów krajowej strategii cyberbezpieczeństwa USA zostało rozwiniętych lub weszło w życie w tym roku.
3. Masterplan cyberbezpieczeństwa technologii operacyjnych Singapuru
· Singapurski Masterplan cyberbezpieczeństwa technologii operacyjnych na rok 2024, który został opublikowany w sierpniu 2024 r., jest nowym aktem prawnym, którego celem jest wzmocnienie cyberbezpieczeństwa technologii, która leży u podstaw dużej części nowoczesnej gospodarki.
Zgodnie z raportem, wpływ generatywnej sztucznej inteligencji na cyberbezpieczeństwo jest wysoki w Ameryce Północnej. Niektóre z odczuwalnych skutków to: Ameryka Północna miała dominujący udział w rynku w 2023 roku. Wyższe wykorzystanie sztucznej inteligencji w systemach bezpieczeństwa, rosnący postęp technologiczny i rosnąca liczba cyberprzestępstw. Ponadto głównymi firmami zainteresowanymi wykorzystaniem generatywnej sztucznej inteligencji są obecnie Microsoft, CrowdStrike i Palo Alto Networks, z których wszystkie dążą do wykorzystania predykcyjnej sztucznej inteligencji w wykrywaniu zagrożeń i automatyzacji opartej na sztucznej inteligencji w reagowaniu na zagrożenia. Na przykład 28 marca 2023 r. Microsoft Corp. ogłosił, że wprowadza sztuczną inteligencję następnej generacji do cyberbezpieczeństwa, wprowadzając na rynek Microsoft Security Copilot, dając obrońcom bardzo potrzebne narzędzie do szybkiego wykrywania zagrożeń i reagowania na nie oraz lepszego zrozumienia ogólnego krajobrazu zagrożeń. Security Copilot połączy rozległą wiedzę Microsoftu na temat zagrożeń z wiodącą w branży wiedzą ekspercką, aby wzmocnić pracę specjalistów ds. bezpieczeństwa za pomocą łatwego w użyciu asystenta AI. Ameryka Północna zajmuje duży udział w bezpieczeństwie AI, ponieważ dane i aplikacje sieciowe szybko się rozwijają, a coraz więcej przedsiębiorstw wdraża środowiska chmurowe i sieci hybrydowe.
Otrzymaj kontakt