IaaS vs PaaS

Na blogach MSDN pojawił się wpis pokrótce (bo temat to rzeka głęboka, kręta i długa) porównujący pewne usługi, ich cechy, użyteczność w wybranych scenariuszach pod względem kategorii, czy też klasy – Infrastructure as a Service oraz Platform as a Service. Przewodni temat – co wybrać?

Dla mnie odpowiedź jest naturalna – chmura to PaaS. Oczywiście nie trzeba się z tym zgadzać, a biorąc pod uwagę co się u dostawców chmurowych wyprawia z różnymi projektami to nawet należy wytknąć palcem, że to jest czasem opcja lepsza (albo przynajmniej wygodniejsza). Nie liczę jakiegoś przenoszenia 1 do 1 aplikacji lub scenariuszy DR lokalnego centrum w chmurę, opieram się raczej na tworzeniu rzeczy nowych.

Niemniej, jakie by moje preferencje i zdanie nie były, wyboru dobrze jest dokonywać świadomie, dlatego takie zestawienia są spoko.

Źródło: What Microsoft Azure Service do I choose?

ASM i ARM Storage Accounts

Tak wypadło z moją krótką wciąż karierą Azurową, że załapałem się na sporo różnych zmian, które do teraz mają wiele konsekwencji w usługach i potrafią stanowić nie lada irytację.

Jedna z tych rzeczy to “stare” (tzw. Classic) i “nowe” Storage Accounts. Jasna cholera mnie bierze, że te konta są w dwóch “zakładkach” i stare nie mają po prostu przycisku “Migrate”. Może za mało wiem o tym co tam się z tyłu dzieje, ale to jest okropnie upierdliwe. Na szczęście jest mądry człowiek prowadzący bloga, który opisał jak to zrobić. Starczy podobno starczy trochę pomachać PowerShellem, o tak.

Warto sprawdzić, ja z pewnością to zbadam i dam znać co i jak.

Szybsza baza, to lepsza baza!

No takie newsy to ja mogę czytać. Piłka jest krótka – Microsoft postanowił dać noworoczny prezent wszystkim, którzy odpowiedzialni są za kontrolowanie i optymalizację obciążenia baz Azure SQL oraz optymalizację kosztów, które one generują.

Od dziś podwojono wydajność zapisu na wszystkich tierach usługi Azure SQL, a bardziej wymagające systemy, opierające się o tiery Premium dodatkowo zyskują podwojoną wydajność odczytu. I wszystko w tej samej cenie, co wcześniej.

Można? Można 🙂

Źródło: https://azure.microsoft.com/pl-pl/blog/azure-sql-database-is-increasing-the-read-and-write-performance/

Ułatwienie w Storage Queues

Takie proste, a takie fajne. Trick polega na tym, że do tej pory po włożeniu wiadomości do kolejki (AddMessage), trzeba było ją ponownie odczytać (GetMessage), żeby otrzymać jej “pop receipt”. Teraz odpowiednie property obiektu CloudQueueMessage jest ustawiane już przy wkładaniu wiadomości do kolejki. Tak więc od razu mamy możliwość przeprowadzania zmian na wiadomości w kolejce czy jej usuwania z kolejki (ogólnie – robienia wszystkiego do czego pop receipt jest potrzebny).

Niby takie nic, ale jak się spojrzy w kod, że jest teraz czysty, elegancki, bez nic nie wnoszących linijek. W dodatku zmiana wprowadzona przy naciski u i usilnych żądaniach community.

Przykład tutaj. Byle tylko więcej funkcjonalności proponowanych przez community.

A czy Ty zmigrowałeś swoje funkcje?!

Azure Functions weszło jakiś czas temu w GA, więc zespół App Service’owy chce się pozbyć wersji preview (<1.0). Oficjalnie ogłoszono je jako deprecated i zapowiedziano proces usuwania wersji 0.x, który rozpocznie się 1 lutego 2017. Na szczęście, zakładając, że w tych 0.x nie używamy funkcjonalności, które nada są w preview (np Powershella czy F#), nasze funkcje zostaną po prostu automatycznie podniesione do wersji 1.0. Jeśli chcemy pozostać przy jakiejś “starej” wersji – kolejne wprowadzały braking changes, więc może tak być, że komuś będzie na tym zależało – należy sprawdzić krótkie FAQ (pod linkiem na dole) albo zgłosić się do teamu (adres też w treści źródła).

Ustawienie wersji na szczęście jest per Function App, więc jeśli używamy stagingu przepuszczając nasz kod najpierw przez “pośrednią” usługę, to możemy najpierw sprawdzić efekt zmiany do 1.0 na tej wersji.
Co także jest ważne – w razie problemu da się wrócić do wersji preview (0.x) przez ustawienie FUNCTIONS_EXTENSION_VERSION.

Wygląda na to, że zespół od funkcji całkiem dobrze przemyślał kwestię migracji i ewentualnych jej konsekwencji dając użytkownikom pewien wachlarz możliwości do sprawdzenia jak zachowa się ich usługa.

Źródło: Azure App Service Team Blog

Nowy blog na horyzoncie!

Nawet nie na horyzoncie tylko już całkiem blisko, na wyciągnięcie ręki. RSSy doniosły mi dziś o pierwszym wpisie na nowym blogu w serwisie MSDN Blogs – “Architekci Chmury. Jak zbudować chmurę dobrze.” Blog otwierany przez plejadę gwiazd 😉 z polskiego oddziału Microsoft.

Części autorów miałem przyjemność posłuchać na żywo, a z publikacjami większości miałem jakąś styczność. Zapowiada się bardzo ciekawie – raz, że grono doświadczone, dwa, że z racji miejsca pracy ma ułatwiony dostęp do grup produktowych i zna mnóstwo interesujących, a jak wspomniał w intro Michał, niezbyt dobrze udokumentowanych, myków i trików.

Blog zasubskrybowany, już niecierpliwie czekam na pierwsze wpisy z mięskiem.

DevOps Cognitive Bot Assistant?

IBM organizuje wśród swoich pracowników wewnętrzne konkursy, które mają podnieść kreatywność, pobudzić pęd ku innowacjom i w efekcie naturalnie przyciągać klientów do firmy. Nie byłoby w tym nic szczególnie niebywałego, ale jeden z projektów, który znalazł się w ścisłym gronie finalistów jednego z konkursów brzmi bardzo interesująco:

Cognibot is a ChatBot-driven conversational experience with which DevOps users solve complex middleware problems using natural language questions. Users get only the data they need, not the full, data heavy-dashboard. This way, they can dig into the institutional knowledge of the organization and reduce downtime.

Infrastructure as Code, wersjonowanie, automatyzacja, continuous integration… ale bot? Koncepcja brzmi bardzo interesująco, ale aż prosi się o więcej szczegółów. Za tydzień ma się pojawić video z twórcami najlepszych projektów, liczę, że zobaczę tam coś więcej.

Źródło: https://www.ibm.com/blogs/cloud-computing/2017/01/contenders-connect-cloud-cognitive-build/

AzureDay North Poland 2016 – tak było

No i co? Niemal tydzień temu napisałem o day zero z założeniem, że będzie dalszy ciąg, że napiszę jakiś rodzaj relacji semi-live. Akurat. Za dużo ciekawych sesji, interesujących ludzi żeby zasiadać przed blogiem. Potem oczywiście nadrabianie 3 dni zaległości no i cyk cyk, tydzień zleciał. Napisać jednak wypada, więc lecimy.

Najpierw trzy słowa o ludziach. Bez wyjątku świetni. Trzeba przyznać, że jednak środowisko, nazwijmy to trochę niemodnie, informatyczne, zwykle potrafi się dogadywać. Goście z zagranicy okazali się niezwykle przyjaźni i otwarci, miałem też okazję nadrobić nawiązywanie znajomości w ramach rodzimej grupy Azure jako, że pojawili się liderzy z Wrocławia i Łodzi, z którymi wcześniej nie miałem przyjemności się spotkać.

Otwarcie już chyba tradycyjnie dosyć luźne, z drobnym, miłym gestem w stronę polskiego community w formie wideo-powitania przez niejakiego pana Scotta Guthrie.

Nie widziałem jeszcze wszystkich sesji, które chciałem. Poszukam jeszcze później bo nawet nie wiem czy są jako VoD na Channel9, więc teraz tylko o tym czego miałem przyjemność posłuchać na miejscu.
Dorzucam też parę zdjęć, ale żeby nie było zbyt monotonnie, to zdjęcia prelegentów na tle PowerPointa sobie podarowałem. Są za to okoliczności przyrody 🙂

Continue reading “AzureDay North Poland 2016 – tak było”

Hands-on with Stream Analytics

No jak na zamówienie. Obejrzałem jeden Hands-on z Machine Learning, potem doszedłem do wniosku, że czas zabrać się za Event Hubs no i na deser pojawił się na YouTube przegląd Azure Stream Analytics, który myślę, że przydałby mi się kiedy się nieco uporam z wspomnianymi już Event Hubami. Co prawda materiałów w sieci jest na ten temat mnóstwo, no ale tak się jakoś złożyło, że pojawiają się na kanale Azure w takim rytmie, że akurat 🙂

No to oglądamy, ale muszę sobie to od razu wpisać na ToDo i przetestować jak to działa, bo bez tego czuję, że nadal będę miał poczucie, że to jest jakaś magia i nie wiem jak to działa.

 

Aaaaaa. Event Huba kupię.

Szala goryczy się przelała. Za dużo danych z aplikacji, za dużo aplikacji (i coraz więcej), SQLe za drogie, koniec końców analiza czegokolwiek wymaga fury dolarów albo anielskiej cierpliwości i saperskiej precyzji, żeby nic nie wybuchło, żeby nie wysadzić produkcji i żeby zdążyć wyciągnąć cokolwiek ciekawego w ciągu dniówki.

Czas na zmiany. Od przyszłego tygodnia zaczynamy ogarniać Event Huba, Storage i dedykowane workery, a ja już teraz zabieram się za wdrożenie się w temat. Bo niby wiem o co chodzi, ale dopóki sam kodu nie napiszę to się nie liczy. Na początek Azure Friday, a potem chyba dokumentacja. Zobaczymy co z tego wyjdzie i czy będzie przeklinanie 😉