AWS vs Microsoft Azure vs Google Cloud. Najlepsze IaaS dla biznesu – Computerworld


Dostawcy największych platform chmurowych dla biznesu: Amazon Web Services, Microsoft Azure i Google Cloud Platform, zażarcie biją się o klientów, ze szczególnym uwzględnieniem dużych organizacji. Który z nich robi to najskuteczniej i najlepiej dopasowuje się do potrzeb współczesnego biznesu?

Cloud computing szturmem zdobył uznanie współczesnego biznesu – coraz więcej i więcej firm przenosi swoje zasoby i aplikacji do chmury, traktując to jako metodę zwiększenia elastyczności efektywności firmowych systemów, przy jednoczesnym obniżaniu kosztów wdrożenia i eksploatacji.

Dostarczanie infrastruktury w modelu usługowym okazało się idealnym rozwiązaniem dla biznesu, oferując komplet niezbędnych dla użytkowników firmowych usług i komponentów. W tym modelu operator usługi, czyli zewnętrzna firma, utrzymuje całą infrastrukturę, zawierającą sprzęt, oprogramowanie, serwery oraz rozwiązania storage i administruje nią w imieniu klienta. Użytkownik nie płaci za sprzęt czy poszczególne aplikacje – zwykle uiszcza po prostu opłatę za zasoby, z których realnie korzystał w okresie rozliczeniowym, najczęściej w postaci abonamentu, choć są również inne warianty rozliczeń.

Zobacz również:

Początkowo model IaaS budził nieco obaw – chodziło m.in. o bezpieczeństwo danych i niezawodność systemów powierzanych stronom trzecim, jednak większość z nich została rozwiana, m.in. za sprawą wyśrubowanych wymagań stawianych przed dostawcami przez regulatorów, a także zwykłą, zdrową konkurencję.

To sprawiło, że w ostatnich latach rynek wystrzelił – wedle najnowszych analiz firmy Gartner, w ubiegłym roku na usługi IaaS wydano 31 mld dolarów, czyli o prawie 7,5 mld więcej niż rok wcześniej.

Głównymi graczami na rynku są Amazon Web Services, Microsoft Azure oraz Google Cloud Platform. AWS ma obecnie ok. 38% rynku usług chmurowych, co oznacza m.in. że w segmencie IaaS, wedle najnowszych danych, zgarnia prawie 50% przychodów, Microsoft – 18%, zaś Google – 9%. Stawkę uzupełnia chińska firma Alibaba z wynikiem 6%. Nie oznacza to jednak, że wskazanie lidera „jakościowego” jest proste, bowiem Microsoft i Google jak szaleni odrabiają straty do AWS, prześcigając się w oferowaniu coraz to nowych funkcji i usług w ramach swoich platform. Która z firm z wielkiej trójki wypada zatem najlepiej? Ocena wymaga wyodrębnienia kilku podstawowych kryteriów.

Porównanie platform IaaS. Funkcje i usługi

Wybranie tego a nie innego dostawcy usługi chmurowej nie jest tylko kwestią ceny – to raczej kwestia potrzeb i specyfiki danego klienta oraz tego, jak dana usługa się w nie wpisuje. Często zdarza się, że duże organizacje jednocześnie korzystają z wielu różnych chmur, lokując w nich różne elementy swojej infrastruktury.

Faktem jednak jest, że pomiędzy trzema omawianymi firmami możemy zaobserwować pewne różnice w filozofii i podejściu do usług, które wyraźnie odróżniają je od siebie i które wielu klientom mogą ułatwić wybór.

Zasadniczo, AWS, Microsoft Azure oraz Google Cloud Platform oferują dość zbliżone zestawy usług związanych z przetwarzanie i przechowywaniem danych oraz funkcjami sieciowymi. We wszystkich znajdziemy te same elementy, typowe dla chmury: daleko idącą samoobsługę, natychmiastowe dostarczanie klientom działających systemów, automatyczne skalowanie, a także usługi z dziedziny bezpieczeństwa czy zarządzania tożsamością.

Największy zestaw usług oferuje jednak Amazon Web Services, w którego portfolio znajdziemy ponad 140 różnych usług z dziedziny przetwarzania i przechowywania danych, baz danych, analityki, sieci, tworzenia aplikacji, bezpieczeństwa, etc. Ostatnio wszyscy dostawcy intensywnie rozwijają jednak swoje katalogi, dodając do nich m.in. rozwiązania z takich dziedzin, jak uczenie maszynowe, internet rzeczy czy serverless computing. Chmury stają się coraz bardziej wszechstronne – klienci mogą używać ich zarówno jako wysoce wydajnego środowiska dla swoich systemów, jak i np. jako platformy do tworzenia aplikacji mobilnych.

AWS udostępnił usługę Amazon Machine Learning, umożliwiającą m.in. trenowanie modeli sztucznej inteligencji już w kwietniu 2015, a później rozszerzył swoje portfolio m.in. o rozwiązania z dziedziny rozpoznawania grafiki (AWS Rekognition) oraz przetwarzania tekstu na mowę (Polly).

Google oferuje z kolei Cloud Machine Learning Engine, pozwalający na tworzenie modeli w oparciu o open source’ową bibliotekę deep learning TensorFlow, a także całą gamę gotowych do użytku interfejsów API obsługujących m.in. rozpoznawanie języka naturalnego, tłumaczenie czy analizę obrazów. Microsoft też nie zasypia gruszek w popiele, udostępniając użytkownikom Azure Machine Learning Studio, wszechstronne narzędzie do tworzenia, testowania i wdrażania algorytmów oraz równie bogaty jak w przypadku Google’a zestaw API.

Wszyscy trzej gracze nie zapominają również o popularnych kontenerach – każdy z nich oferuje już wsparcie dla popularnych usług z tej dziedziny, takich jako np. Kubernetes (to zresztą projekt wspierany przez Google), service mesh czy Docker. Standardem stało się również ułatwianie klientom korzystania z rozwiązań innych firm – m.in. poprzez umożliwianie im uruchamiania różnych zewnętrznych aplikacji i usług w ramach infrastruktury chmurowej.




Porównanie platform IaaS. Przetwarzanie danych, usługi storage, bazy danych i sieci

W przypadku AWS podstawową ofertę z dziedziny przetwarzania danych stanowią instancje EC2, które mogą być jednak wysoce konfigurowalne i łączone z wieloma opcjonalnymi rozwiązaniami. Firma oferuje również cały zestaw usług pokrewnych, takich jak np. Elastic Beanstalk do tworzenia aplikacji, usługę EC2 Container, AWS Lambda czy Autoscaling.

W Microsoft Azure centralnym i kluczowym elementem oferty są maszyny wirtualne oraz towarzyszące im narzędzia służące np. do wdrażania aplikacji w chmurze – Cloud Services oraz Resource Manager – a także, rzecz jasna, usługa Azure Autoscaling.

Klienci Google’a korzystają z kolei z Compute Engine, który dostarcza maszyny wirtualne hostowane w centrach danych koncernu. Maszyny można uruchamiać błyskawicznie, oferowane są z trwale powiązaną przestrzenią dyskową, gwarancją stabilnej wydajności i możliwością szczegółowego konfigurowania, tak by każdy klient mógł dopasować je do swoich potrzeb.

Wszyscy dostawcy oferują również relacyjne bazy danych: Azure SQL Database, Amazon Relational Database Service, Redshift oraz Google Cloud SQL, a także bazy NoSQL, czyli Azure DocumentDB, Amazon DynamoDB oraz Google Bigtable.

Jeśli chodzi o rozwiązania storage, w przypadku AWS mamy Simple Storage, Elastic Block Storage, Elastic File System, a także narzędzia do importu i eksportu danych, backupu i archiwizacji (Glacier), a także Storage Gateway, czyli rozwiązanie integrujące pamięć masową w chmurze z zasobami w lokalnej infrastrukturze firmy.

Oferta Microsoftu w tej dziedzinie to usługi Azure Storage, Azure Blob block, a także rozwiązania Table, Queue oraz File storage. Firma dostarcza również narzędzia do backupu, przywracania i migracji danych (odpowiednio: Azure Backup, Site Recovery, Import Export). Także w ofercie Google znajdziemy podobny zestaw narzędzi i usług, wszystkie firmy gwarantują też doskonałe parametry sieciowe, automatyczny load balancing oraz narzędzia do podłączania do chmury firmowych zasobów. Z tym ostatnim bezpośrednio łączą się…

Porównanie platform IaaS. Rozwiązania z dziedziny chmury hybrydowej

Jednym z wyraźniej zauważalnych trendów w świecie usług chmurowych jest umożliwianie klientom łatwego tworzenia środowisk wielochmurowych i hybrydowych, co pozwala im wygodnie łączyć chmurę z zasobami lokalnymi, a także tworzyć systemy składające się z usług dostarczanych przez różnych dostawców usług cloud.

Przez długi czas liderem w tym segmencie pozostawał Microsoft, którego Azure Stack był dla wielu firm podstawową platformą do uruchamiania środowisk hybrydowych i zarządzaniami nimi. Ale konkurenci również nie próżnują – w ubiegłym roku na imprezie re:Invent Amazon zaprezentował swój pomysł na hybrydową chmurę, czyli usługę Outposts, a niedawno do wymienionej dwójki dołączył również Google, przedstawiając rozwiązanie o nazwie Anthos. Jest to de facto połączenie platformy Google Cloud Services z Google Kubernetes Engine, GKE On-Prem oraz konsolą do zarządzania Anthos Config Management.

Porównanie platform IaaS. Kwestia ceny

Niezależnie od oferowanego zestawu funkcji, ważnym czynnikiem decydującym o wyborze tej czy innej platformy chmurowej jest cennik. Tym bardziej, że jak przedstawiliśmy powyżej, ów zestaw funkcji jest w przypadku konkurentów dość zbliżony. Ceny zresztą w ostatnim czasie wyraźnie spadają, co również ma oczywiście związek z silną konkurencją na rynku.

Najogólniej rzecz ujmując, koszty korzystania z ofert czołowych dostawców cloud są dość zbliżone i stosunkowo łatwo porównywalne, szczególnie od końca 2017 r., kiedy to Amazon nieco zmodyfikował swój cennik i upodobnił go do modelu praktykowanego przez Google i Microsoft. Oczywiście, każdy z głównych graczy na rynku stosuje też cały zestaw rabatów i ofert promocyjnych. Dlatego optymalnym sposobem na porównanie ich oferty jest skorzystanie z udostępnianych przez każdą z firm kalkulatorów wyceny, umożliwiających w miarę precyzyjne porównanie cen zestawu usług optymalnego dla naszych potrzeb (patrz: ramka obok).

Co istotne, każda z platform oferuje również jakąś formę darmowego testu swoich rozwiązań – warto z niego skorzystać zanim zdecydujemy się na wybranie tego czy innego produktu.

Porównanie platform IaaS. Klienci

Informacja o tym, kto jeszcze korzysta z danej usługi, niekoniecznie musi być kluczowa podczas wybierania platformy chmurowej – ale dla niektórych organizacji wiedza o tym, kto jeszcze zaufał danemu dostawcy lub na czyjej infrastrukturze działa jakiś system, może być bardzo cenna.

Pod tym względem najlepiej wypada AWS. Amazon pozyskał ogromne grono renomowanych klientów. Dość wspomnieć, że to właśnie AWS buduje prywatną chmurę dla amerykańskiej Centralnej Agencji Wywiadowczej i że to w tej chmurze działa najpopularniejsza usługa wideo na żądanie na świecie, czyli Netflix. To, że AWS jest liderem, nie jest przypadkiem – platforma ma największe zasługi w dziedzinie przekonywania firm do migracji do chmury. Wśród jej klientów znajdziemy obecnie m.in. AstraZeneca, NewsCorp, AirBnB, Aon, Channel 4, Financial Times, Dow Jones, Kurt Geiger, Lonely Planet, Nasdaq, Nike, Nisa Retail, Pfizer czy Royal Opera House.

Microsoft wypada pod tym względem nieco gorzej – faktem jednak jest, że firma również pozyskała spore grono rozpoznawanych i cenionych klientów, w tym m.in. Pearson, Ford, NBC News czy Easyjet. Możemy się jednak spodziewać, że ich lista będzie się w najbliższym czasie szybko wydłużać, ponieważ, jak wynika z ujawnionej niedawno wewnętrznej korespondencji firmy, Microsoft skupia się obecnie na promowaniu Azure m.in. poprzez przygotowywanie ofert skrojonych pod potrzeby konkretnych, pojedynczych klientów, a nie tylko określonych branż czy specjalizacji.

Z oferty Google’a również korzysta spore grono popularnych dostawców usług i aplikacji – w tym muzyczny gigant Spotify, brytyjski bank HSBC, firma Snap (dostawcy usługi Snapchat, który jednak częściowo opiera swoją infrastrukturę również na chmurze AWS), Home Depot czy Disney.

Porównanie platform IaaS. AWS – zalety i wady

Do bezdyskusyjnych atutów AWS zaliczyć należy ogromny wybór usług i aplikacji, wielkie doświadczenie firmy w tym segmencie, a także fakt, że jej oferta jest skrojona pod gusta klientów korporacyjnych i idealnie wpisuje się w potrzeby zarówno developerów, jak i szefów IT. Ważnymi zaletami jest również wysoka konfigurowalność wszystkich rozwiązań, dostępność narzędzi z dziedziny monitorowania zasobów i wdrażania/egzekwowania polityk, bezpieczeństwa i podtrzymania niezawodności. Wielu klientów docenia z pewnością również ogromny ekosystem usług i aplikacji firm trzecich, dostępnych dla klientów AWS, a także elastyczność i otwartość na współpracę z rozwiązaniami innych producentów.

Gdybyśmy mieli wskazać obszar, w którym AWS wyraźnie pozostaje za konkurentami, byłaby to strategia budowy chmur hybrydowych – aczkolwiek ostatnimi czasy firma zaczyna uzupełniać braki w tej dziedzinie. Problemem może też być paradoksalnie wspomniany wcześniej ogromny wybór usług i rozwiązań – jest ich tak wiele, że wybór odpowiedniego a także zarządzanie nimi bywają niekiedy dość kłopotliwe.




Porównanie platform IaaS. Microsoft Azure – zalety i wady

Kluczowym atutem oferty Microsoftu jest niezwykle silna pozycja firmy w wielu organizacjach – jej produkty chmurowe w naturalny, prosty sposób łączą się i współpracują z oprogramowaniem, które w biznesie jest dziś standardem (Windows Server, System Center czy Active Directory), co ułatwia migrację i zarządzanie całością. Warto też wspomnieć o atrakcyjnej ofercie PaaS (Platform as a Service) – takie rozwiązania oferuje również AWS, aczkolwiek oferta firmy z Redmond wydaje się bardziej dopracowana i atrakcyjna.

Istotną dla potencjalnych klientów wadą są problemy z niezawodnością. Platforma Azure zaliczyła w tym roku szereg mniej i bardziej poważnych awarii. I choć nie są one obce również konkurentom, to jednak te Microsoftu sprowokowały analityków Gartnera do zasugerowania klientów, by krytyczne systemy przywracania danych i systemów utrzymywali raczej gdzie indziej.

Po stronie wad Azure użytkownicy platformy wymieniali również m.in. drobne problemy ze wsparciem technicznym, dokumentacją, szkoleniami (takie zastrzeżenia pojawiły się w przygotowanym przez firmę Gartner raporcie Magic Quadrant 2017). Jako problem wskazywano również ograniczone wsparcie dla innych platform, aczkolwiek zaznaczyć trzeba, że Microsoft intensywnie pracuje nad rozwiązaniem, konsekwentnie rozwijając wsparcie dla rozwiązań open source.

Porównanie platform IaaS. Google Cloud Platform – zalety i wady

Google trzeba docenić za innowacyjność i efektywne wspieranie firm, dla których chmura jest środowiskiem podstawowym i natywnym, a także za aktywność w świecie open source. Z drugiej strony, nie można nie zauważyć, że firma ma większe niż konkurenci problemy z zaistnieniem w świecie korporacyjnym.

Do tej pory strategia chmurowej platformy Google opierała się raczej na współpracy z niewielkimi, innowacyjnymi projektami – niezależnymi lub działającymi w ramach większych organizacji. Firma nie poszukiwała aktywnie dużych firm, dla których mogła by stać się strategicznym partnerem chmurowym. To się musi zmienić, jeśli Google chce liczyć na zainteresowanie swoją ofertą chmurą większej liczby tradycyjnych firm, planujących migrację do chmury. Wydaje się, że właśnie za takie działania ma być odpowiedzialny zatrudniony niedawno jako CEO platformy chmurowej GCP Thomas Kurian. Były menedżer Oracle wyjaśniał w wywiadach, że jego celem będzie wspieranie firm z wielu różnych branż, które właśnie przeprowadzają (lub planują) swoją cyfrową transformację. Metodą na osiągnięcie tego celu ma być m.in. znacznie zwiększenie zatrudnienia w działach sprzedaży oraz wsparcia klienta.

Wydaje się jednak, że firma wciąż stawiać będzie na rozwiązania z dziedziny sztucznej inteligencji i uczenia maszynowego (jako, że już dziś są one uważane za jeden z kluczowych atutów jej platformy chmurowej), a także cenione przez klientów rozwiązania analityczne jak BigQuery czy bazy danych Cloud Spanner.

Porównanie platform IaaS. Werdykt

Paradoksalnie trudno w tym miejscu wskazać platformę, o której zdecydowanie można powiedzieć: oto zwycięzca. Ale nie migamy się tu od odpowiedzi i postaramy się skrótowo wyjaśniać, dla kogo oferta danej firmy może być najlepsza.

Najogólniej rzecz ujmując, AWS wciąż pozostaje liderem segmentu, oferując najbogatszy wybór narzędzi i funkcji, choć z zastrzeżeniem, że konkurenci szybko skracają dystans. Dla dużych organizacji bogactwo funkcji i narzędzi wciąż czyni AWS najbardziej atrakcyjnym wyborem, tym bardziej, że skala działań firmy pozwala jej na agresywne cięcia cenowa i liczne promocje.

Microsoft też nie zasypia gruszek w popiele i śmiało można powiedzieć, że w przypadku firm, które już wcześniej zainwestowały w inne rozwiązania firmy z Redmond Azure może być lepszą opcją.

Jest też i Google, którego platforma już teraz doskonale wpisuje się w potrzeby pewnej specyficznej grupy klientów – tych, którzy wykorzystują w swoich systemach Kubernetes czy narzędzia z dziedziny uczenia maszynowego. Zasadniczo jednak firma ma sporo do nadrobienia w kwestii wsparcia dla klientów korporacyjnych – jest jednak duża szansa, że pod nowym przywództwem działu chmurowego proces ten będzie przebiegał bardzo sprawnie.



Source link

Czy potrzebujemy kryptografii kwantowej? – Computerworld


Naukowcy nie są jeszcze w pełni zgodni co do tego, jakie będą zastosowania komputerów kwantowych. Wydaje się jednak, że jednym z obszarów, w którym powinien nastąpić znaczący skok, jest kryptografia.

Informatyka kwantowa przebija się do głównego nurtu, a w laboratoriach naukowo-badawczych powstają komputery kwantowe, które mogą działać w świecie rzeczywistym, a nie tylko w teorii. I choć dostęp do obliczeń kwantowych w dużej mierze ogranicza się obecnie do środowisk laboratoryjnych, należy spodziewać się, że w przyszłości będzie bardziej rozpowszechniony.

Co prawda, nadal jesteśmy daleko od momentu zwanego przez IBM „przewagą kwantową”: gdy maszyny kwantowe będą w stanie przejąć zadania wykonywane przez tradycyjne komputery. Zainteresowani naukowcy mogą już teraz „bawić się” systemem IBM Q System One, nie wspominając o jego złożonych elementach poprzez otwarte środowisko Qiskit.

Zobacz również:

Jedną z firm, które już opracowują rozwiązania z obszaru informatyki kwantowej i kryptografii kwantowej, jest Thales, francuski konglomerat działający m.in. w branżach lotniczej, obronności, transportu i bezpieczeństwa. Koncern podjął współpracę z firmami ISARA i ID Quantique, która obraca się wokół wbudowania „zwinnego kryptograficznie”, „kwantoodpornego” systemu bezpieczeństwa w przyszłych produktach Thales. Produkty zwinne kryptograficznie to takie, które są programowalne niezależnie od zastosowania i w których można szybko wdrożyć wszystkie przyszłe standardy kwantoodpornych algorytmów szyfrowania.

Kwanty pomogą w szyfrowaniu

W ramach kooperacji Thales i ID Quantique prowadzone są prace nad kwantowym generatorem liczb losowych zapewniającym tworzenie silnych kluczy, a także nad kwantową dystrybucją kluczy. Dzięki temu, zawsze gdy konieczne będzie szyfrowanie lub inne operacje kryptograficzne, klucz z nimi związany zostanie bezpiecznie przesłany pomiędzy wszystkimi węzłami komunikacyjnymi. „Gdy tylko kwantowe przetwarzanie danych wejdzie do użytku, ludzie muszą być przygotowani na to, jak chronić dane i jak budować systemy odporne na nowe zagrożenia cybernetyczne” – ocenia Todd Moore, starszy wiceprezes Thales.

Ale jak to zwykle bywa z nowinkami technicznymi – zwłaszcza tymi, które mają potencjalnie tak poważne, dalekosiężne konsekwencje, jak informatyka kwantowa – cyberprzestępcy też pewnie zaczną rozważać sposoby zaprzęgnięcia ich do pomocy w swych codziennych działaniach. W najgorszym przypadku konieczne będzie doposażenie całej obecnej generacji rozwiązań kryptograficznych w nowe algorytmy, bardziej odporne na złamanie w drodze przetwarzania kwantowego.

Skala wykorzystania macierzy pamięci masowej, baz danych i innych lokalizacji przechowywania danych sprawia, że należyte zabezpieczenie się przed nowymi typami zagrożeń będzie być nie lada wyzwaniem. Firmy takie jak Thales pracują więc nad możliwościami, dzięki którym wszystkie obiekty zaszyfrowane tradycyjną kryptografią mogłyby być automatycznie aktualizowane do najnowszych i najlepszych standardów.

Moore uważa, że w kwestii zagrożeń kwantowych niektóre przedsiębiorstwa chowają głowę w piasek, bowiem wywnioskowały, że zagrożenie to jest zbyt odległe w czasie, by zabezpieczanie się przed nim już teraz było priorytetem. Sytuacji nie poprawia fakt, że nie zostały jeszcze ustalone żadne standardy. Wciąż nie wiadomo, jaki jest algorytm kwantoodporny, na jakich zasadach odbywa się certyfikacja, itp.

Póki co, amerykański Narodowy Instytut Norm i Technologii pracuje już nad stworzeniem wspólnych ram, które umożliwiłyby stosowanie „kwantoodpornych” algorytmów kryptograficznych. Przedstawiciele NIST twierdzą, że projekty standardów dla takich algorytmów z kluczem publicznym mogą zostać przedstawione już w 2022 roku.

Moore spodziewa się, że najbliższych latach, być może już w 3. dekadzie XXI w. firmy rozpoczną wprowadzanie zabezpieczeń lub przynajmniej ich komponentów, by we właściwym momencie być w stanie dokonać aktualizacji i wdrożyć nowe normy. Tym bardziej, że na sierpniowej konferencji Black Hat/DefCon w Las Vegas można było zaobserwować większą niż kiedykolwiek wcześniej liczbę startupów z sektora informatyki kwantowej. Świadczy to o rosnącym zainteresowaniu tą dziedziną.



Source link

Przeglądarka Edge „full Chromium” jest już dostępna w kanale Beta – Computerworld


Microsoft ogłosił, że przeglądarka Edge bazująca na opracowanym przez Google oprogramowaniu Chromium (chodzi o mechanizm renderowania) osiągnęła status beta. Oznacza to, że została już przetestowana na tyle dokładnie, iż użytkownicy komputerów Windows 7, Windows 10 i MacOS mogą jej używać w swojej codziennej pracy bez większych obaw o to, że będzie stwarzać im kłopoty.

Do tej pory przeglądarka Edge pracująca w trybie „full Chromium” dostępna była w kanałach dystrybucji Canary i Dev (chodzi o użytkowników zarejestrowanych w programie Microsoft Edge Insider). W tych dwóch kanałach dystrybucji przeglądarka Edge „full Chromium jest zresztą dalej dostępna. Obecnie pojawiła się ona również w kanale Beta. Można ją pobrać stąd.

Jak wiadomo edycja Canary jest najmniej dopracowaną, pierwszą wersją oprogramowania, a edycja Dev zawiera już pierwsze poprawki, dzięki którym oprogramowanie pracuje stabilniej. Oprogramowanie udostępniane w wersji Beta pracuje z reguły bez błędów. Kanał ten udostępnia z reguły użytkownikom kolejne wersje oprogramowania (zwierające drobniejsze już poprawki) co sześć tygodni.

Zobacz również:

Nową wersję przeglądarki Edge można skonfigurować tak, aby zapobiegała śledzeniu użytkownika na trzech różnych poziomach: Basic, Balanced i Strict (Podstawowym, Zrównoważonym i Dokładnym), pomagając mu blokować pliki cookie i umożliwić surfowanie po internecie bez obaw o naruszenie prywatności.



Source link

Największy na świecie układ scalony zawiera ponad 1000 mld tranzystorów – Computerworld


Kalifornijska firma Cerebras Systems (start up) twierdzi, że zbudowała największy na świecie układ scalony. I ma chyba rację, gdyż zawiera on 1,2 bln tranzystorów. Nosi nazwę Wafer Scale Engine (WSC) i został zaprojektowany z myślą o obsługiwaniu aplikacji wspierających sztuczną inteligencję oraz głębokie, maszynowe uczenie.

Jest to rzeczywiście układ gigant biorąc pod uwagę fakt, że wprowadzone ostatnio na rynek rozwiązania tego typu (przez takie np. firmy, jak AMD czy Nvidia) zawierają od 20 do 30 mld tranzystorów, czyli kilkadziesiąt razy mniej niż Wafer Scale Engine. Np. najnowszy procesor firmy AMD (Epyc) zawiera 32 miliardy tranzystorów.

Cerebras Systems twierdzi, że zaprojektował układ Wafer Scale Engine wiedząc o tym, że dostępne obecnie procesory dysponują niejednokrotnie zbyt małą mocą obliczeniową, aby mogły z powodzeniem obsługiwać aplikacje wykorzystujące najnowsze technologie IT.

Zobacz również:

Chodzi tu głównie o sztuczną inteligencję, która jest wyjątkowo wymagająca jeśli chodzi o moc obliczeniową obsługujących je procesorów. Dlatego testowanie aplikacji wspierających tę technologię jest bardzo drogie i trwa niejednokrotnie całymi miesiącami.

Układ Wafer Scale Engine ma rozwiązać ten problem i pomóc w spełnieniu ogromnych wymagań obliczeniowych związanych z głębokim uczeniem. Został bowiem opracowany specjalnie w celu wykonywania tak olbrzymiej ilości obliczeń, z jaką obecnie nie może sobie poradzić nawet największy procesor.

Wafer Scale Engine jest ponad 56 razy większy od największego produkowanego obecnie procesora graficznego (chodzi o powierzchnię) i zawiera 3 tysiące razy więcej własnej pamięci (dokładnie 18 GB) co powoduje, że jest w stanie komunikować się z nią kilka tysięcy razy szybciej (9 PB/s) niż standardowy procesor, a jego rdzenie są wtedy zawsze zajęte obliczeniami. To właśnie głównie z tego powodu bierze się jego olbrzymia moc obliczeniowa.

Na ponad 46 tysiącach milimetrów kwadratowych krzemu (taką powierzchnię zajmuje tablet) znajduje się 400 tysięcy rdzeni zoptymalizowanych pod kątem technologii AI, a specjalna architektura zagnieżdżonej na jego pokładzie pamięci sprawia, że każdy z nich działa z maksymalną wydajnością.

Producent nie podał jak dotąd, kiedy układ (który jest obecnie intensywnie testowany) pojawi się oficjalnie w jego ofercie. Ma to jednak nastąpić jeszcze w tym roku.



Source link

Huawei pracuje nad usługą mającą stawić czoła Google Maps – Computerworld


Okazuje się, że Huawei rozwija intensywnie nie tylko własny mobilny system operacyjny, ale pracuje również nad usługą, która rzuci wyzwanie firmie Google i stworzonej przez nią aplikacji Google Maps.

Wiadomość taką podał niedawno chiński serwis China Daily, który zazwyczaj jest bardzo dobrze poinformowany. Twierdzi on, że prace nad taką aplikacją są bardzo zaawansowane i Huawei zamierza w pierwszej fazie udostępnić ją deweloperom wykorzystującym w swojej pracy mapy, a dopiero w dalszej perspektywie zwykłym użytkownikom internetu.

Dlatego pierwszy pakiet deweloperski tego typu zawierać będzie szereg narzędzi pozwalając tworzyć aplikacje wykorzystujące dane geograficzne oraz szczegółowe instrukcje objaśniające ich działanie. Nieoficjalnie wiadomo, że Huawei nadał usłudze mającej stawić czoła aplikacji Google Maps nazwę Map Kit.

Zobacz również:

Ma ona oferować narzędzia pozwalające np. tworzyć w czasie rzeczywistym raporty o ruchu drogowym jak również technologię AR (rozszerzona rzeczywistość), którą Google wprowadził do swojej usługi Google Maps zaledwie kilka miesięcy temu.

Według China Daily firma Huawei ma przy opracowywaniu swojej wersji usługi Google Map współpracować ściśle z rosyjskim serwisem internetowym Yandex, który ma mu dostarczać większość danych geograficznych niezbędnych przy projektowaniu tego rodzaju aplikacji. Huawei pracuje obecnie intensywnie nad zintegrowaniem ich z własną platformą.

W opinii analityków wiele obecnie zależy od tego, jak rozwiną się dalej kontakty między firmami Huawei i Google. Jeśli będą one ze sobą toczyć dalej wojnę (co ma oczywiście ścisły związek z faktem, że administracja amerykańska nałożyła na Huawei sankcje gospodarcze oskarżając ją o działanie niezgodne z prawem, a nawet o szpiegowanie), Huawei może się zdecydować na wprowadzenie do swoje oferty tej usługi już w najbliższych miesiącach.



Source link

Microsoft przejmuje firmę jClarity – Computerworld


Gigant w Redmond zdecydował się na ten krok mając nadzieję, że ułatwi to życie tym deweloperom tworzącym aplikacje korzystające z usług chmury Azure, którzy posługują się językiem programowania Java. Firma jClarity świadczy bowiem usługi , które wspierają ten język. Jak dotąd wartość transakcji nie została podana do publicznej wiadomości.

Przejmując technologie opracowane przez jClarity, Microsoft będzie się starać optymalizować pracę aplikacji Java uruchamianych na jej chmurowej platformie Azure. Microsoft docenił tym samym rolę firmy jClarity jako jednego z ważnych współtwórców projektu AdoptOpenJDK, który udostępnia użytkownikom bezpłatne pliki binarne OpenJDK bazujące na otwartym kodzie.

Należy przypomnieć, że to Microsoft był sponsorem tego projektu, dzięki któremu użytkownicy komputerów Windows i Linux mogli korzystać z plików open source.

Zobacz również:

Informatycy z jClarity znają bardzo dobrze oprogramowanie JVM i pomagają klientom zoptymalizować aplikacje Java, jak również wspierają czynnie społeczności wspierające ten model projektowania aplikacji. Z kolei Microsoft w ostatnich kilku latach korzystał chętnie z tego języka programowania, wdrażając np. na jego bazie takie usługi analityczne, jak AzureHDInsight czy Minecraft.



Source link

Zaproszenie na targi bezpieczeństwa it-sa 2019 – Computerworld


W dniach od 8-go do 10-go października tego roku w centrum wystawowym Messezentrum w Nürnbergu (Niemcy) odbędą się międzynarodowe targi it-sa 2019 poświęcone bezpieczeństwu systemów IT. Jest to jedna z większych imprez tego typu na świecie, w której bierze udział kilkaset firm oferujących usługi i produkty zapewniające systemom IT bezpieczeństwo.

W zeszłym roku w targach wzięło udział ponad 700 wystawców z 27 krajów, którzy zaprezentowali ponad 15 tysiącom odwiedzających je osób swoje najnowsze rozwiązania chroniące systemy IT przed różnego rodzaju zagrożeniami.

Również w tym roku targi będą doskonała okazją dla osób stojących na straży bezpieczeństwa systemów IT do zapoznania się z najnowszymi rozwiązaniami, jak również opiniami ekspertów zajmujących się tym zagadnieniem.

Zobacz również:

Eksperci w różnych firm udzielać będą użytkownikom odwiedzającym targi szereg informacji i porad pozwalających zapewnić systemom IT jeszcze większy poziom bezpieczeństwa, a dostawcy takich rozwiązaniach będą prezentować swoje dokonania z trzech salach.

W ostatnim dniu targów gość specjalny (Misha Glenny) wygłosi przemówienie poświecone zmieniającemu się w ostatnich latach podejściu do kwestii bezpieczeństwa IT, zatytułowane „The Vitruvian Paradox – The Changing Face of the Human in Cyber Security”. Swoją uwagę skoncentruje na tezie, że znajdujemy się obecnie w punkcie zwrotnym gdyż od niedawna to nie człowiek jest najsłabszym ogniwem systemów bezpieczeństwa ale to, że nie jest on w stanie zapanować nad stworzonymi przez siebie systemami tego typu.

Więcej informacji o targach it-sa 2019 (w tym szczegółowy plan i listę wystawców) można znaleźć tutaj.



Source link

Instagram z nową opcją pozwalającą zwalczać fałszywe treści – Computerworld


Instagram (należący do Facebooka fotograficzny serwis społecznościowy) poinformował pod koniec zeszłego tygodnia, że wprowadza do swojej usługi nową opcję, dzięki której użytkownicy będą mogli włączyć się czynnie do walki z fałszywymi wiadomościami.

I tak użytkownik tej usługi będzie teraz mógł oznaczyć oglądany post flagą oznaczającą, że według niego jest to próba oszustwa.

Tak oznakowane posty będą po weryfikacji – którą to czynność wykonuje powołana do tego celu grupa składająca się z odpowiednio przeszkolonych osób, którą wspomagają specjalne algorytmy oraz sztuczna inteligencja – usuwane z lokalizacji, w których użytkownicy wyszukują nowych treści. Ma to miejsce np. wtedy, gdy użytkownik usługi Instagram klika opcję „Eksploruj” lub wyszukuje interesujące go treści z użyciem hasztagów.

Zobacz również:

Żaden z serwisów społecznościowych Facebooka nie kontroluje obecnie czy hostowane przez niego informacje są prawdziwe. Dlatego Facebook podejmuje ostatnio szereg kroków zmierzających do tego, aby eliminować z nich wpisy, które noszą cechy fałszywej informacji i tak naprawdę dezinformują. Próba namówienia użytkowników usługi Instagram do włączenia się w tą walkę wpisuje się w tą strategię.

Facebook współpracuje obecnie z ponad 50 partnerami na całym świecie, którzy sprawdzają na różne sposoby treść umieszczanych na jego serwisach wpisów redagowanych w 42 różnych językach. Jednak na początek nowa opcja znakowania Instagramowych postów jako prawdopodobnie fałszywych zostanie udostępniona tylko użytkownikom zamieszkujących terytorium USA. Jeśli testy potwierdzą, że ta metoda walki z fałszywymi wiadomościami sprawdza się, zostanie ona zaproponowana również użytkownikom zamieszkującym inne kraje.



Source link

Kreatywność i szczypta odwagi: przepis na innowacyjność według VMware – Computerworld


O tempie zmian technologicznych, biznesowej kreatywności, konieczności współpracy działów IT z biznesem i pracownikami w wywiadzie dla Computerworld mówi Arkadiusz Sikora, nowy Dyrektor Generalny w VMware Polska. Jego zdaniem innowacyjność nie polega na wymyślaniu koła na nowo, tylko na wykorzystywaniu go do budowy taczek i wozów.



Arkadiusz Sikora, Dyrektor Generalny w VMware Polska

Pana szef, Pat Gelsinger powiedział, że przed nami dekada niezwykle szybkiego rozwoju technologicznego. Biorąc pod uwagę, że wiele firm nadal ma problem z wdrażaniem innowacji, nie jest to tylko zaklinanie rzeczywistości?

Technologie zmieniają się w naprawdę zawrotnym tempie. W ciągu ostatnich dwóch dekad dokonaliśmy skoku technologicznego większego niż w ciągu poprzednich pięciu wieków. Zresztą, kto śmiałby pomyśleć jeszcze 20 lat temu, że dzisiaj będziemy w stanie efektywnie pracować z domu, wykorzystując prywatne urządzenia, w między czasie robiąc zakupy w Internecie, a najszybszą trasę przejazdu do pracy pokaże nam wirtualna mapa, która czerpie dokładne dane o naszym położeniu z satelit GPS. Żyjemy w czasach, gdy problemem nie jest już nawet leczenie przy wsparciu sztucznej inteligencji i zaawansowanej automatyki. Tym, co nas ogranicza są lęki i asekuranctwo.

Czemu więc biznes obawia się innowacji i nowych pomysłów?

Współczesne organizacje są przede wszystkim bardzo ostrożne. Jak wykazały badania VMware, przeprowadzone wspólnie z Cass Business School, rozbieżność między chęcią zmian, a tempem ich wprowadzania jest ogromna. A powiedzmy wprost: nie liczą się słowa, a czyny, a tych niestety brakuje. Tym, co pozwoliło nam wynaleźć silnik parowy, stworzyło smartfony, uratowało firmę Apple od rynkowego niebytu i urzeczywistniło milion innych konceptów jest umiejętność egzekucji pomysłów. Innowacje są niczym, jeśli firma nie umie zmienić idei w rzeczywistość. Przekonała się o tym chociażby Nokia, która nieefektywnie próbowała dostosować się do nowych smart czasów i w końcu uległa szybszym i sprawniejszym we wdrażaniu innowacji graczom.

Czyli bez umiejętności wdrażania innowacji i szybkiej reakcji na zachodzące na rynku zmiany wiele firm nie przetrwa? Co współczesny biznes może zrobić, by nie wpaść w tę pułapkę?

Firmy nie mogą bezczynnie czekać na społeczną akceptację czy ocenę rynkowej skuteczności danych technologii, a muszą same inwestować w nowatorskie pomysły, inicjować zmiany i wyznaczać ich kierunek. Zarządzanie innowacjami powinno opierać się nie tylko na chłodnej kalkulacji, ale także na improwizacji i gotowości do eksperymentowania z nawet najbardziej szalonymi pomysłami tu i teraz. Wystarczy spojrzeć na każdą innowację, która powstała w naszej historii. Wszystkie mają wspólny mianownik: kreatywność, która objawia się tym, że ktoś wziął istniejącą technologię lub rozwiązanie i znalazł ciekawy sposób, by wykorzystać ją w inny sposób, niż pierwotnie założono. Firmy legendy odróżnia od zwykłych organizacji to, że nie boją się próbować. Takim inicjatywom zawdzięczamy połączenie przenośnego radia i telefonu, przyczyniło się do powstania telefonu komórkowego. GPS, telefon komórkowy plus samochód. Właśnie poznaliśmy historię Ubera. Czy Ford wynalazł pierwszy samochód? On tylko zreorganizował proces produkcji w duchu swoich czasów.

Jak więc współczesny biznes może wykrzesać odpowiednie pokłady tej „cyfrowej” kreatywności?

Każda ze wspomnianych przeze mnie innowacji, zrealizowana w odpowiednim momencie naszej historii zmieniła sposób, w jaki żyjemy i pracujemy. Choć różne jest ich działanie i zaawansowanie to mają jeden wspólny mianownik. Wspomniana właśnie kreatywność. A ta rodzi się na styku technologii i ludzi. Tylko ludzie posiadają swoisty gen wynalazcy i innowatora, który zamienia dzień dzisiejszy w jutro. To człowiek zestawił istniejące technologie i możliwości, pchnął w nie nowe życie i zamiar obrócił w rzeczywistość. Można więc wręcz powiedzieć, że innowacyjność nie polega na wymyślaniu kół, tylko taczek i wozów.

Skoro to kreatywność napędza zmiany, kto powinien wziąć na siebie odpowiedzialność za cyfrową transformację przedsiębiorstw?

Wszyscy w firmie muszą mieć wpływ na zmiany. Pracownicy IT muszą współpracować z biznesem, by przekonać zarządy o słuszności wdrożenia tej czy innej technologii. Swój wkład dzisiaj muszą też mieć pracownicy działów HR, handlowcy czy specjaliści ds. marketingu, którzy każdego dnia wykorzystują cyfrowe rozwiązania i najlepiej wiedzą, co wspiera ich codzienną prace. W nadchodzących latach kluczowa stanie się ścisła współpraca między nimi a pracownikami IT różnych szczebli. To przyczyni się do osiągnięcia cyfrowej maestrii biznesu. Również szeregowy pracownik może wpływać na proces cyfryzacji, ale musi mieć możliwość wykorzystania całej posiadanej wiedzy technicznej i specjalistycznej w różnorodnych sytuacjach wraz z dostępem do pożądanych technologii. Nasze badania wykazały, że polskie organizacje, które rzadziej zapewnią pracownikom swobodę pracy ze swoich urządzeń osobistych mają niższe wskaźnik wzrostu. Działy IT muszą dzisiaj zrobić wszystko, by umożliwić pracownikom swobodę wykonywania obowiązków. Jeśli sami nie posiadają zasobów, z pomocą przychodzą zewnętrzni dostawcy technologii m.in. z obszaru End User Computingu.

A jak sytuacja wygląda w Polsce? Nasze firmy rozumieją tę potrzebę zmian czy mamy problem z cyfryzacją w duchu innowacyjności?

Z polską cyfryzacją i innowacyjnością główny problem polega na tym, że nie wiadomo jaką jednostkę oceny przyjąć. Z jednej strony digitalizacja polskiego sektora bankowego plasuje nas w światowej czołówce, z drugiej strony nasza administracja w wielu obszarach nadal pozostaje w europejskim ogonie. Nadal mamy też dużo do zrobienia w sektorze małych i średnich przedsiębiorstw, w których wiedza i stopień zaawansowania transformacji są niestety na stosunkowo niskim poziomie. Wszystko to prowadzi do sytuacji, która dzieli nasz kraj na wyspy innowacji otoczone swoistym morzem cyfrowej niekompetencji, braku odpowiednich talentów i procedur, które obniżają tempo wdrożeń nowych rozwiązań. Elastyczność działań, która pozwoliłaby wyjść z tego impasu, daje dzisiaj chmura obliczeniowa.

Chmura obliczeniowa istnieje na rynku od wielu lat i niektórzy eksperci znaleźliby wiele nowocześniejszych rozwiązań. W jaki sposób cloud może wesprzeć wdrożenia innowacji?

W cyfrowych czasach biznes działa w oparciu o fizyczną i wirtualną infrastrukturę IT, aplikacje, usługi sieciowe oraz liczne urządzenia mobilne. Problem stanowi to, że często nie są one ze sobą kompatybilne. Chmura to zmienia. Daje przede wszystkim szybkość i wolność. Pozwala w oka mgnieniu wdrażać, uruchamiać oraz wykorzystywać nowe aplikacje i rozwiązania. Jedno, dwa kliknięcia i gotowe. Co więcej, chmura i rozwiązania wirtualizacyjne pozwalają ujednolicić zarządzenie coraz bardziej skomplikowanym środowiskiem technologicznym. W ten sposób biznes jest wspierany przez m.in. nasz VMware Cloud Foundation, który stanowi fundament wdrożenia chmur hybrydowych pod różnorodne środowiska aplikacyjne. Jeszcze inną sprawa jest, że cloud we wszystkich swoich odmianach – chmura publiczna, prywatna, hybrydowa – demokratyzuje innowacje. Wielkie firmy mogą pozwolić sobie na drogi sprzęt komputerowy, mali i średni nie za bardzo. Chmura daje im dostęp do rozwiązań zarezerwowanych niegdyś tylko dla dużych graczy.

Czy wobec tego, możemy określić chmurę mianem targu możliwości?

Jeśli firma decyduje się zbudować nową aplikację czy platformę, powinna pamiętać, że w cyfrowym świecie wszystko może być usługą i najprawdopodobniej projektowany wewnętrznie software już gdzieś istnieje. Pewnie można go dostać jako usługę w chmurze. Dzięki temu, cyfrowe przedsiębiorstwa, mogą czerpać z tego faktu znacznie szybciej korzyści i jednocześnie mniej ryzykują, ponieważ kupują sprawdzone już rozwiązania. Weźmy na warsztat przykład Ubera. Firma nigdy nie stworzyła własnej unikalnej aplikacji, tylko połączyła w jedną usługę kilka sprawnie działających funkcjonalności, wykorzystując rozwiązania cloudowe jako cyfrowy fundament pod innowacyjność. VMware Polska chce być takim fundamentem dla polskich firm i kreatywnych przedsiębiorców patrzących w przyszłość.

VMworld Europe 2019, Barcelona, 4-7 listopad 2019

O kierunkach rozwoju technologii IT, a także nowych produktach i usługach wprowadzanych przez VMware oraz inne firmy współpracujące z VMware można będzie się dowiedzieć podczas konferencji VMworld Europe 2019 w Barcelonie w dniach 4-7 listopada 2019 roku. W 2018 roku konferencja przyciągnęła blisko 13 tysięcy użytkowników i specjalistów IT, ponad 3,5 tysiąca firm oraz 115 wystawców ze 101 krajów. Liczby te są dobrym argumentem by już obecnie zarejestrować się i wziąć udział w VMworld 2019.



Source link

Firma napędzana przez SI – Computerworld


Z rozwiązań sztucznej inteligencji korzysta coraz więcej firm, w dodatku z różnych sektorów rynkowych. Jakie praktyki wprowadzić, aby firma była gotowa na wdrożenie SI? I jakiego rodzaju firmy najbardziej skorzystają na takich rozwiązaniach?

Rozwiązania z obszaru sztucznej inteligencji przekształcają coraz więcej biznesów, ale jak zauważa firma analityczna McKinsey, tempo tych zmian nie jest tak szybkie, jak można by przypuszczać. Technologie, dzięki którym można wykorzystywać SI, np. storage oraz dostęp do mocy przetwarzania danych, są coraz tańsze, a z prognoz wynika, że w ciągu następnej dekady SI doda do światowej gospodarki 13 bilionów dolarów. Mimo to wiele organizacji, zamiast czym prędzej implementować własne rozwiązania, nie podejmuje wystarczających wysiłków.

Zapytaliśmy ekspertów jakie firmy powinny zdecydować się na wdrożenie rozwiązania AI i kiedy warto to zrobić (kto może na tym najwięcej skorzystać). Przedstawiamy zarówno porady specjalistów, jak również przykłady wdrożeń przeprowadzone przez lub w polskich firmach.

Zobacz również:

Kiedy się zdecydować

Mechanizmy AI i ML (machine learning – uczenie maszynowe) ułatwiają i przyspieszają analizę danych. To ich pierwsze zastosowanie. Łukasz Milic, na stanowisku business development representative w QNAP, tłumaczy że głównie firmy przetwarzające ogromne ilości danych, a więc z branż typu finanse i bankowość, telekomunikacja czy medycyna, powinny być zainteresowane rozwiązaniami AI. „W przypadku medycyny mechanizmy SI pozwalają przyspieszyć analizy wyników medycznych, szczególnie diagnostyki obrazowej poprzez analizę dziesiątek tysięcy zdjęć w krótkim czasie w celu wykrycia patologii” — zauważa Łukasz Milic. „W ten sposób lekarz może otrzymać do analizy wstępnie odfiltrowane dane, gdzie tradycyjnie musiałby analizować wszystko samodzielnie” — dodaje.

Jednocześnie przedstawiciel firmy QNAP zauważa, że mechanizmy AI możemy wykorzystywać nawet w mniejszych organizacjach, które nie zajmują się przetwarzaniem dużych zbiorów danych. Kto skorzysta? Dla przykładu AI można stosować na mniejszą skalę w systemie monitoringu, który może na bieżąco analizować obiekty pojawiające się na obrazach z kamer i następnie je klasyfikować, np. poprzez wykrywanie twarzy i określanie czy jest to osoba z firmy, czy nie, albo rozpoznawać nr rejestracyjny samochodu przed bramą wjazdową do firmy.

Tu jednak warto podkreślić, że SI nie jest jeszcze na tyle tania, aby każda firma mogła sobie na nią pozwolić. „Mniejsze firmy, które nie przetwarzają dużych ilości danych, niekoniecznie będą dostrzegały możliwości zastosowania systemów SI. Co więcej, może się okazać, że koszt wdrożenia systemu będzie nieadekwatny do zysku uzyskanego z jego działania” — mówi Łukasz Milic.

Kamil Konikiewicz, dyrektor Biura Rozwoju Sztucznej Inteligencji PKO Banku Polskiego, przekonuje, że SI zagościła już w wielu gałęziach biznesu, a przykłady obejmują zastosowania w obszarze automatyzacji obsługi wniosków szkodowych (ubezpieczenia), wsparcie procesów kontroli jakości z wykorzystaniem wizji komputerowej (branża wytwórcza), czy wykorzystanie wirtualnych asystentów w obsłudze klienta. „Trudno w sposób wyczerpujący wskazać rodzaje firm czy branż, w których SI zagwarantuje największe korzyści, jednak podstawowe kryteria zwiększające szanse powodzenia to odpowiednio duża skala i powtarzalność procesu biznesowego, a także dostępność historycznych danych, na których można uczyć algorytmy SI” — mówi Kamil Konikiewicz.

SI jest obecnie jednym z filarów strategii rozwoju PKO Banku Polskiego. Bank dostrzegł potencjał AI jeśli chodzi o usprawnianie zarówno procesów wokół klienta (obsługa, doradztwo, sprzedaż, budowanie relacji z klientem), jak i wewnętrznie (np. obszar HR i helpdesku). A czy były już konkretne wdrożenia? Do tej pory m.in. zrealizowano kilka punktowych inicjatyw SI, takich jak projekt związany z liczeniem uśmiechów klientów w oddziałach, czy wdrożenie bota wspierającego proces rekrutacyjny. „Obecnie w banku trwa projekt You&AI związany z wdrożeniem inteligentnego asystenta głosowego w kanałach cyfrowych i telefonicznych” — zdradza Kamil Konikiewicz.

„W najbliższych miesiącach nasi klienci będą mogli m.in. zarządzać swoimi finansami, wydając komendy głosowe w aplikacji IKO. W kolejnych fazach zakres projektu obejmie minimum kilkadziesiąt procesów biznesowych m.in. w kanale telefonicznej obsługi klienta czy bankowości elektronicznej iPKO” — dodaje. Jakie jeszcze przykłady wdrożeń AI znajdziemy w rodzimych organizacjach?

Od sklepów po usterki

Firma ITmagination już kilka lat temu opracowała rozwiązanie Behaviolytics®, które poprzez analizę danych w czasie rzeczywistym przygotowuje dla klienta rekomendacje i spersonalizowaną ofertę na podstawie „śladu”, jaki zostawił w internecie, np. na podstawie sposobu poruszania się po sklepie internetowym czy w aplikacji bankowej. Marcin Dąbrowski, chief innovation officer w ITmagination, podkreśla, że w firmie pracuje zespół Data Science, który wspiera klientów we wdrażaniu rozwiązań SI. „Przykładem takiego wdrożenia może być system oceny niewypłacalności klienta na podstawie rzeczywistych danych (tzw. clickstream) z bankowości internetowej i mobilnej, który wdrożyliśmy w jednym z największych banków w Polsce” – mówi.

Z kolei dla innej firmy ITmagination stworzyło system analizy ruchu z kamer CCV w sklepie. I tak, mechanizmy SI w czasie rzeczywistym wyciągają wnioski dotyczące długości kolejek przy kasach i pozwalają na lepsze zaplanowanie liczby kasjerów i otwartych kas. „System na żywo powiadamia kierownika sklepu, że zaraz może utworzyć się kolejka” — zdradza Marcin Dąbrowski, dodając że pozwala on też sprawdzić efektywność rozmieszczenia towarów na poszczególnych półkach, a w dłuższej perspektywie eliminować negatywne odczucia klientów związane z doświadczeniem robienia zakupów w danym sklepie.

Ciekawe wdrożenia SI ma za sobą również Tauron Polska Energia. Dla przykładu, firma wprowadziła wirtualnego agenta (interactive voice response), który wspiera obsługę numeru alarmowego Pogotowia Energetycznego 991 w wielokanałowej rejestracji zgłoszeń o awariach od odbiorców, jak również informuje o wyłączeniach energii elektrycznej. „Od połowy 2018 r., oprócz tradycyjnych konsultantów, zgłoszenia na linii alarmowej 991 przyjmuje 500 Wirtualnych Agentów. Pozwala to na jednoczesne przyjmowanie i rejestrowanie kilkuset zgłoszeń telefonicznych.

Wirtualny Agent to awatar, system teleinformatyczny wykorzystujący nowoczesne technologie oparte na bazie mechanizmów sztucznej inteligencji” — tłumaczy Łukasz Zimnoch, rzecznik prasowy Tauronu. W projekcie zastosowano takie rozwiązania jak: rozpoznawanie mowy (system podczas dialogu analizuje wypowiadane frazy, określając ich znaczenie i uzupełniając w sposób automatyczny odpowiednią formatkę w systemie rejestracji zgłoszeń); IVR (interactive voice response) – umożliwia interaktywną obsługę osoby dzwoniącej; text to speech (udzielanie wcześniej zdefiniowanych odpowiedzi bądź informacji dla klienta); eksploracja danych (system może poinformować klientów firmy o występujących awariach i obszarze ich oddziaływania, trwających pracach czy statusie obsługiwanych spraw).

Innym wdrożeniem zrealizowanym przez Tauron jest model predykcyjny wykorzystujący nowoczesne modele wykrywania anomalii i przewidywania awarii, który trafił do należącej do firmy Elektrowni Łagisza. „Działanie systemu sprowadza się do analizy dużych zbiorów danych sensorowych z wykorzystaniem najnowocześniejszych metod sztucznej inteligencji (m.in. Deep Learning – nowoczesna odmiana sieci neuronowych)” — mówi przedstawiciel firmy. W odróżnieniu od strategii reaktywnej lub strategii prewencyjnej ustalonej w oparciu o średnie okresy pracy bezawaryjnej danej jednostki, strategia predykcyjnego utrzymania ruchu bloków energetycznych daje możliwość świadomego zarządzania eksploatacją maszyn oraz procesem produkcyjnym. „Z kolei Blok 910 MW, który powstaje w Jaworznie, również będzie wyposażony w systemy predykcyjne oraz systemy zarządzania aktywami, których celem jest utrzymywanie jak najwyższej dyspozycyjności, żywotności i sprawności bloku” — dodaje Łukasz Zimnoch.

Tauron rozwija też różne projekty badawczo-rozwojowe z wykorzystaniem SI, takie jak system automatycznego rozpoznawania usterek w liniach napowietrznych, system wspomagający proces zarządzania populacją transformatorów WN/SN, czy platforma zarządzania danymi z zaawansowanej infrastruktury pomiarowej wykorzystująca machine learning, a także system CRM do automatyzacji zadań wchodzących w skład grup interakcji z klientem (automatyzacja marketingu, automatyzacja obsługi klienta, automatyzacja sprzedaży). To dość wyraźnie pokazuje, jak szerokie zastosowanie może mieć SI w dużej organizacji.

Rozpoznawanie i boty

SI usprawnia wiele procesów, które dana firma musiałaby realizować manualnie – czyli oddelegować pracowników do poszczególnych, często żmudnych czynności. Poznański software house Apptension zrealizował dla swoich klientów już wiele projektów z użyciem SI. „W tematyce rozpoznawania obrazu już w 2015 r. wykonywaliśmy pierwsze podejścia, wykorzystując technologie do rozpoznawania logotypów przy współpracy z firmą Logograb i UNIT9 dla marki Heineken” — mówi Zbigniew Czarnecki, CEO w Apptension. „W kolejnym roku, przy pracach nad aplikacją dla marki Caesar, we współpracy z UNIT9 mieliśmy podejście do rozpoznawania ras psów ze zdjęć. Wiemy, że te technologie nie działają perfekcyjnie, ale na pewno znają więcej marek lub psów niż przeciętna osoba – a już to powoduje, że mogą znaleźć ciekawe zastosowania” — dodaje.

Apptension na co dzień pracuje też z analizą języka naturalnego (NLP) przy tworzeniu botów, z algorytmami rozpoznawania cech na podstawie obrazu, czy też z modelami automatycznego oznaczania rozproszonych informacji, by wspierać procesy zarządzania wiedzą w przedsiębiorstwach. Z kolei w zeszłym roku firma, we współpracy z włoską agencją BonsaiNinja, opracowała dla marki Hoover rozwiązanie wspierające detekcję wieku i pewnych charakterystyk, opierając się na technologii rozpoznawania obrazu.

Wszystkie te przykłady pokazują w jak dużym stopniu AI może odciążać firmy z wielu zadań. Tomasz Tomaszewski, R&D product manager w SentiOne, firmy specjalizującej się m.in. w monitoringu internetu i automatyzacji obsługi klienta, tłumaczy, że wdrożenie AI oznacza bardziej zadowolonych klientów, ale także i samych pracowników. „Automatyzacja pozwala odciążyć agentów z rozwiązywania najbardziej powtarzalnych problemów klientów, dokładniej analizować konwersacje czy podnieść jakość i ustandaryzować proces obsługi” — zauważa. I dodaje: „Dzięki sztucznej inteligencji możemy automatycznie kategoryzować konwersacje, określać ich sentyment i nacechowane emocjonalnie, podpowiadać agentom obsługi klienta najlepsze odpowiedzi, a także zautomatyzować obsługę najczęstszych zapytań klientów za pomocą wirtualnych asystentów – chatbotów”.

Jeśli więc chcemy stworzyć bota lub automatyzować wiele procesów biznesowych, AI sprawdzi się w tych zastosowaniach bardzo dobrze. I nie zapominajmy, że na co dzień w zasadzie wszyscy korzystamy z AI w internecie. „Sugerowanie treści na portalach typu LinkedIn, Facebook, Instagram, czy chociażby sugestie fraz od Google lub tłumaczenie tekstów przez Google Translate – wszystko to oparte jest na zaawansowanych algorytmach sztucznej inteligencji, takich jak sieci neuronowe czy NLP” – podkreśla Zbigniew Czarnecki.

Najbardziej skorzystają najwięksi

Firma SentiOne używa AI we własnych produktach do obsługi klienta i jej automatyzacji z wykorzystaniem chatbotów, a jednocześnie podkreśla, że z jej rozwiązań korzystają firmy z różnych branż: finansowej, energetycznej, lotniczej czy elektronicznej. „Jedno z ciekawszych wdrożeń w branży bankowej polegało na wykorzystaniu naszych narzędzi do pełnej obsługi klienta: począwszy od monitorowania treści w internecie, automatyzacji obsługi klienta w wielu kanałach tekstowych aż po chatboty” — mówi Tomasz Tomaszewski.

Wdrożenie to zaczęło się od integracji wszystkich tekstowych kanałów kontaktu w jednym narzędziu do obsługi (SentiOne React), a pierwszym krokiem automatyzacji było uruchomienie smart routingu, czyli automatycznej kategoryzacji konwersacji i przypisania ich do odpowiedniego agenta. Dalej, rozwiązania AI zaczęły podpowiadać agentom obsługi klienta najbardziej pasujące odpowiedzi, a platforma SentiOne Automate zapewniła chatbota przejmującego obsługę w przypadku najbardziej powtarzalnych zapytań. „Pozwoliło to na automatyzację ponad 40 proc. rozmów, a czas pierwszej reakcji na zapytanie klienta poprawił się o 83 proc.” — mówi ekspert.

Jednocześnie specjaliści są zgodni co do tego, że z AI najbardziej skorzystają obecnie firmy, które mają duże ilości ustrukturyzowanych danych. To właśnie duże bazy danych są niezbędne do uczenia algorytmów AI tak, aby nieustannie podnosić ich skuteczność. „Im więcej danych, tym dokładniejsza nauka algorytmu, a co za tym idzie – skuteczność w rozwiązywaniu problemów” — przekonuje Tomasz Tomaszewski. I dodaje: „Opłacalność AI rośnie wraz ze skalą biznesu. Firmy, które przetwarzają niewielką ilość danych, których procesy są mało powtarzalne lub ich automatyzacja przyniesie niewielkie oszczędności czasowe – zanim wdrożą AI powinny poczekać na uzyskanie odpowiedniej skali, która gwarantuje opłacalność wdrożenia”.

Czy powinienem wdrożyć u siebie SI?

Zbigniew Czarnecki z Apptension przekonuje że sygnałem na to, że warto zastanowić się nad wdrożeniem SI jest coraz większa liczba powtarzalnych zadań, która zaczyna irytować pracowników. „Obecne algorytmy nie są może w stanie zastąpić naturalnej inteligencji, ale nie możemy wykluczyć, że za 5, 10 czy 20 lat sztuczna inteligencja będzie w stanie podjąć za nas większość decyzji opartych o nasze przesłanki czy nawyki, i to z większym prawdopodobieństwem sukcesu niż w przypadku gdybyśmy to my je podejmowali” – twierdzi ekspert.

I z tego powodu każda firma, która zauważa problem powtarzalności pewnych procesów lub wykonuje bardzo powtarzalne i schematyczne zadania, może użyć AI do ich optymalizacji. Już teraz systemy SI są na tyle dopracowane, że mogą wnieść wiele wartości w procesy zarządzania organizacją, procesy optymalizacji, zarządzania zasobami (HCM), czy też odkrywania wiedzy o biznesie (BI). „Uważam, że SI jest już na tyle dojrzała” -przekonuje Zbigniew Czarnecki.

Dodatkowo warto zadać sobie kilka pytań, które ułatwią decyzję na temat wdrażania AI. Czy zasoby w naszej organizacji są w stanie obsłużyć wszystkie zadania? Czy w organizacji istnieją zadania, które wykonywane są w ten sam sposób i warto wdrożyć w nich automatyzację? Czy pracownicy w naszej organizacji lubią wykonywać daną czynność i czy da się ten proces ulepszyć?

Dla przykładu, czy przepisywanie treści dokumentów jest pożądanym zadaniem, czy też chcielibyśmy do tego użyć narzędzia OCR, które zrobi to za nas lub chociażby nam w tym powtarzalnym procesie pomoże? AI na swoim obecnym poziomie jest w stanie doradzać w rozwiązywaniu problemów – wnioskowaniu i sugerowaniu, tak jak w przypadku wspomnianego OCR. „Dochodzimy do etapu, gdzie rozumowanie danej prostej czynności może być już zastąpione rozwiązaniem automatycznym, które nie powoduje negatywnych efektów. Dla przykładu, automatyczne oznaczanie komentarzy, które są spamem lub wspieranie klasyfikowania wiedzy w organizacji, może zastąpić 80 proc. czasu pracy człowieka, co daje przestrzeń na bardziej ambitne zadania” – mówi CEO Apptension.



Source link