Microsoft Yaz Okulu (Açık Akademi) Stream Analytics Sunumu

Her yıl Microsoft tarafından düzenlenen ve sadece belirli üniversitelerden seçilen öğrencilerin katılımıyla gerçekleştirilen Microsoft Yaz Okulu bu yıl da tüm hızıyla sürüyor. Geçtiğimiz hafta Koray Kocabaş’ın Big Data alanındaki sunum gününde ben de yaklaşık 1.5 saat süren bir sunumla katılımcılara Azure Stream Analytics ve Azure Events Hub servisleri ile ilgili bilgi aktarma şansı yakaladım.

Sunum sırasında günümüz teknolojileri ve datanın büyüme ivmesini göz önüne alarak klasik iş zekası süreçlerinin nerelerde yetersiz kaldığını, stream olarak akan büyük miktarda verinin elde edilmesi, analiz edilmesi ve anlık olarak raporlanması için sunulan custom çözümler ve bunlara ilave olarak sunulan Microsoft Azure Events Hub ve Stream Analytics servisleri aktarıldı. Aynı zamanda anlık akan verinin raporlanması için yine Microsoft Power BI ürünü ile neler yapılabileceği birer demo ile katılımcılara gösterildi.

Sunumum boyunca ilgi duyan, sorular soran ve bu alana yönelmek isteyen bir çok katılımcı gördüm. Hepsine ilgilerinden dolayı çok teşekkür ederim. Ayrıca bu etkinliğin düzenlenmesinde büyük rol alan Microsoft Türkiye ofisi ekibine ve beni sunumuna davet eden değerli hocam ve arkadaşım Koray Kocabaş’a çok teşekkür ederim. Bundan sonraki etkinliklerde de yine birlikte olmak dileğiyle…

İstanbul Ticaret Üniversitesi Stajokulu Bilişim Sınıfı Etkinliği

Yaklaşık 15 yıldır her sene düzenlenen yaz dönemi Stajokulu etkinliği bu yıl İstanbul Ticaret Üniversitesi’nde düzenlenmekte. Türkiye’nin çeşitli üniversitelerinden bilişim alanındaki öğrencilerin katılımıyla gerçekleştirilen program yaklaşık olarak 1 ay sürmekte ve öğrenciler çeşitli konularda etkinlikler yapmakta. Aynı zamanda bu süreç içerisinde öğrencilere bilişim alanında teknik sunumlar da yapılmakta.

Son 3 yıldır olduğu gibi bu yıl da bu etkinliğe seve seve destek olduk. Yaklaşık 60 öğrencinin katıldığı etkinlikte katılımcılara Veritabanı Kavramları ve SQL Server 2016 ile Sorgulamaya Giriş sunumu gerçekleştirdik. Yaklaşık 3 saat süren etkinlikte hem teknik aktarımlar yaptık hem de kariyer anlamında öğrencilere elimizden geldiğince yol göstermeye çalıştık. Umarım faydalı olabilmişizdir…

Etkinliğin düzenlenmesinde rol alan Empatik başta olmak üzere, etkinlikte rol alan, bizlerin sunum yapmasına olanak sağlayan ve özellikle de sunum esnasında son derece aktif bir şekilde katılım sağlayan tüm öğrencilere sonsuz teşekkürlerimi sunarım. Umarım tekrar görüşürüz…

Teknolojinin Kadın Liderleri Ödülleri’ne başvurular başladı

Microsoft tarafından düzenlenen Teknolojinin Kadın Liderleri Ödülleri’ne başvurular başladı. Geçtiğimiz yıl ilki düzenlenen yarışma için başvuruya ait detaylı bilgileri aşağıdaki linkten bulabilirsiniz.

Teknolojinin Kadın Liderleri Ödülleri’ne başvurular başladı

Herkese duyurulur 🙂

 

 

Bartın Üniversitesi Yönetim Bilişim Sistemleri Etkinliği’ndeydik

Geçtiğimiz hafta Bartın Üniversitesi Yönetim Bilişim Sistemleri Bölümü öğrencileri ve Yönetim Bilişim Sistemleri Kulübü tarafından organize edilen “Yönetimde Bilişim Etkinliği” ne katılmak üzere Bartın’daydık. Öncelikle salonu tıklım tıklım dolduran yaklaşık 400 öğrencinin katılımıyla gerçekleştirilen etkinliğin düzenlenmesine katkı sağlayan herkese sonsuz teşekkürlerimi sunarım. Oldukça samimi bir ortamda gerçekleştirilen etkinlikte katılımcılara Yazılım, Veritabanı ve Bilgi Sistemleri alanındaki kariyer olanaklarından, gelecekte karşılaşacakları iş fırsatlarından, teknolojinin nereye doğru ilerlediğinden ve kendi iş tecrübelerimizden bahsetme fırsatı bulduk. Bu kadar istekli ve azimli bir katılımcı kitlesine yardımcı olabilmek ve naçizane tecrübelerimizden bahsetmek bana inanılmaz büyük bir gurur, mutluluk ve inanç verdi. Umarım bütün arkadaşlar gelecekteki kariyerlerinde hak ettikleri ve istedikleri başarılara imza atarlar…

Bu etkinliğin düzenlenmesinde katkısı olan ve bizleri etkinliğe davet eden başta Bartın Üniversitesi Yönetim Bilişim Sistemleri öğrencileri ve YBS kulübü yöneticilerine sonsuz teşekkür ediyorum. Etkinliğimize katılan, etkinlik süresince ve sonrasında bizleri en iyi şekilde ağırlayan arkadaşlara da ayrıca teşekkür ediyorum. Sonraki etkinliklerde tekrar görüşmek dileğiyle…

Yazar: Abdullah ALTINTAŞ

2017 Microsoft MVP Ödülleri

Microsoft tarafından verilen 2017 MVP (Most Valuable Professional) ödülleri sahiplerini buldu. Bu yıl ben de Data Platform alanında Microsoft tarafından MVP ödülüne layık görüldüm. Türkiye’de bu alanda benden önce sadece 3 kişide olan bu ödüle layık görülmek benim açımdan çok büyük bir gurur ve onur kaynağı oldu.  Bu ödülü bana layık gören Microsoft Türkiye ve tüm MEA MVP topluluğuna çok teşekkür ederim.

Bu süreç içerisinde desteklerini esirgemeyen Yiğit Aktan, Koray Kocabaş, İsmail Adar, Erdem Avni Selçuk ve Engin Polat başta olmak üzere herkese çok teşekkür ederim. MVP topluluğuna elimden geldiğince destek sağlayacağımın sözünü vererek herkesi saygıyla selamlıyorum…

MEF Üniversitesi Big Data – Stream Analytics Sunumu

MEF Üniversitesi’nde düzenlemiş olduğumuz Big Data – Advanced Data Analytics sunumunda sektörün çeşitli kesimlerinden gelen katılımcılara Microsoft Azure Çözümleri  ve Amazon Web Services (AWS) Analytics Çözümleri kullanılarak stream verinin elde edilmesi ve analizinin yapılması ile ilgili sunumlar gerçekleştirdik.

streamsunum

Sunumum esnasında Microsoft Azure servisleri kullanılarak gerçek zamanlı stream verinin analiz edilmesi ve depolanması konusunu ele aldık ve aşağıdaki servisleri kullanarak demo senaryolar ile uygulama gerçekleştirdik:

  • Azure Event Hubs
  • Azure Stream Analytics
  • Azure SQL Database
  • Power BI
  • Azure BLOB Storage

Sunumun devamında Microsoft Azure çözümlerine alternatif olarak Amazon Web Services (AWS) analitik servisleri kullanılarak yine stream verinin analiz edilmesi ve depolanması ile ilgili senaryoları ele aldık. Bu kısımda da aşağıdaki AWS servislerinden bahsettik:

  • AWS Kinesis Stream
  • AWS Kinesis Analytics
  • AWS Kinesis Firehose
  • AWS Redshift
  • AWS S3 Bucket
  • AWS QuickSight

awssunum

Etkinliğin düzenlenmesinde rol alan ve sunum için bana destek olan Koray Kocabaş’a ve sunuma katılan tüm katılımcılara teşekkür ederim. Başka etkinliklerle tekrar görüşmek üzere…

Not: AWS Kinesis Analytics servisleri ile ilgili yazıları ve demoları yakın zamanda sizlerle paylaşacağım. Microsoft Azure ve AWS çözümlerini karşılaştıracağımız birkaç yazı serisi yakın zamanda sizlerle olacak…

SQL Server’da Tablo ve Kolon Detaylarını Elde Etme (T-SQL Script)

Microsoft SQL Server ile proje geliştirirken bazı durumlarda bir tabloya ait kolonları ve o kolonlara ait bilgileri elde etmek isteyebilirsiniz. SQL Server eğitimlerinde ve projelerde genellikle bu soru çok fazla karşımıza çıktığı için bu bilgiyi nasıl elde edebileceğimizi bir yazıya dökmek istedim.

SQL Server Database Engine kullanılarak geliştirilen yazılım projeleri, SQL Server Integration Services (SSIS) kullanılarak tasarlanan ETL projeleri veya SQL Server Reporting Services (SSRS) kullanılarak geliştirilen bir raporlama projesi gerçekleştirdiğinizi ve bu projenin herhangi bir safhasında projede kullanılan tablolar ile ilgili bir dokümantasyon oluşturmak istediğiniz bir senaryoyu düşünün. Böyle bir istek karşısında kullanılan bütün tablolara ait kolonlar ve bu kolonlara ait yapısal bilgileri bir yere dokümante etmek için öncelikle bu bilgilere erişmeniz gerekmektedir. SQL Server Management Studio (SSMS) kullanılarak tablo adını seçtikten sonra Alt + F1 tuş kombinasyonunu kullanarak ilgili tablonun çeşitli özelliklerini görebilmekteyiz. Ancak tek bir sonuç seti olacak şekilde ve istenilen ek bilgileri de dahil edecek şekilde customize etmek istediğimizde bu bilgileri elde edebilecek bir T-SQL scripti oluşturmamız gerekmektedir. Bu yazımızda bu bilgileri elde edebileceğiniz bir script örneğini sizlerle paylaşıyorum. Üzerinde sizler de ekleme / çıkarma yaparak istediğiniz değerlere göre düzenleme yapabilirsiniz. Umarım faydalı olur:

SQL Server’da bir tabloya ait kolonların detaylı bilgilerini elde edebileceğiniz T-SQL scriptini aşağıdaki TechNet Gallery linki üzerinden ücretsiz olarak indirip kullanabilirsiniz;

https://gallery.technet.microsoft.com/SQL-Server-Getting-Table-22bf4e81

Umarım faydalı olur…

Bir sonraki yazımızda görüşmek üzere…

Yazar: Abdullah ALTINTAŞ

Microsoft Azure Servisleri ile Advanced Data Analytics Çözümleri Kitabımız Yayınlandı!!!

Uzun zamandır Microsoft Azure çözümlerini kullanarak stream verilerinin analiz edilmesi ile ilgili yazılar paylaşmaktaydım. Hatta bu konuları kapsayacak şekilde blogumda Advanced Data Analytics isminde yeni bir kategori oluşturdum. Yazmış olduğum bütün bu alanla ilgili yazılarımı  bu kategori altında paylaşıyorum. Aynı zamanda Yüksek Lisans bitirme projem olan bu konular üzerine yaptığım çalışmaları bir kitap haline getirmeyi ve ücretsiz olarak faydalanmak isteyenler için pdf olarak paylaşmayı uzun zamandır planlıyordum. Sonunda bütün konuları kapsayacak şekilde ele aldığım ve güncellediğim kitabım yayınlanmaya hazır hale geldi.

Kitapta Advanced Data Analytics ve IoT Kavramlarına Giriş, İçerik Yönetim Sistemleri, Microsoft Azure Çözümleri ve Bu Alandaki Rakipleri (Apache Kafka, AWS Kinesis), Microsoft Azure Event Hubs, Microsoft Azure Stream Analytics, Microsoft Power BI ve Microsoft Azure SQL Database konuları ele alındı ve belirli senaryolar ile örnekler gerçekleştirilerek sonuçları paylaşıldı. Yazarken ben büyük keyif alarak yazdım. Umarım okurken sizler de aynı keyfi alırsınız.

Kitaba ait linki aşağıda paylaşıyorum. Keyifli okumalar…

Microsoft Azure Servisleri ile Advanced Data Analytics Çözümleri Kitabı

Kapak

 Yazar: Abdullah ALTINTAŞ

Stream Verinin Azure SQL Database’de Table Partitioning ile Tutulması (Demo)

Advanced Data Analytics başlığı altında daha önce, stream olarak gelen çok büyük miktarda verinin Microsoft Azure Event Hubs servisi ile nasıl elde edilebileceği, Microsoft Azure Stream Analytics servisi ile nasıl analiz edilebileceği ve Microsoft Power BI kullanılarak gerçek zamanlı olarak nasıl raporlanabileceğini ele almıştık. Aynı zamanda stream verinin daha sonra analizinin yapılması için Azure SQL Database‘de nasıl saklanabileceğini serinin önceki yazılarında göstermiştik. Bugünkü konumuza geçmeden önce göz atmak isteyenler için Advanced Data Analytics başlığı altındaki makale serisine aşağıdaki linkten erişebilirsiniz:

http://www.abdullahaltintas.com/index.php/real-time-click-stream-analizi-icin-microsoft-azure-cozumleri-serisi/

Günlük hayatımızda IoT kavramı odağımıza girdikçe üretilen verilerden anlamlı sonuçlar çıkartabilmek, çok büyük miktarlarda üretilen verileri hızlı ve doğru bir şekilde elde edip analizini yapabilmek özellikle veri bilimciler için çok önemli bir noktaya geldi. Internet of Things (IoT) cihazları, sensörler, akıllı çözümler, sistemlere ait loglar ve click stream verileri gibi saniyede milyonlarca veri üreten sistemlerden bu verileri almak ve işlemek için çeşitli yöntemler kullanılmakta ve bu ihtiyaçlar karşılanmaktadır. Microsoft teknolojileri açısından baktığımızda Azure Event Hubs, Azure Stream Analytics çözümleri ile bu veriler etkin bir şekilde elde edilebilmekte ve analizi yapılabilmektedir. Ardından analizi yapılan veriler ihtiyaca bağlı olarak farklı çıktılar üretebilmekte ve gerektiğinde tekrar analiz edilmek üzere saklanabilmektedir. Özellikle tekrar analiz edilmek üzere saklanmak istenilen bu büyük miktarda veriler Azure BLOB Storage gibi bir çözüm ile saklanabileceği gibi bazı durumlarda Microsoft’un bulut sistemlerdeki ilişkisel veritabanı çözümü olan Azure SQL Database hizmeti ile tablo yapısında da tutulabilmektedir. Ancak veri miktarı çok büyük olduğundan Azure SQL Database çözümünde bu veriler tek bir tabloda tutulmak istenildiğinde yönetilebilirlik ve ölçeklenebilirlik bakımından parçalı bir yapıda tutulması bizlere avantaj ve performans kazandıracaktır. Bu makalemizde stream olarak akan click-stream verisinin Azure Stream Analytics’ten çıktıktan sonra Azure SQL Database hizmetinde Table Partitioning yapısı kullanılarak nasıl tutulabileceğini ele alacağız.

Serinin önceki yazılarında kullanmış olduğumuz uygulamayı benzer şekilde devreye sokacağız. Uygulama üzerinde kullanıcıların oluşturduğu tıklamalardan meydana gelen click stream verisinin Azure Event Hubs ile nasıl elde edildiğini ve Azure Stream Analytics ile nasıl analizin yapıldığını linklerden öğrenebilirsiniz. Yapacağımız demoda bu aşamaya kadar olan süreci daha önce aktarmış olduğumuz için geçiyor ve direkt olarak Stream Analytics job’ının output kısmından anlatıma başlıyoruz. Senaryomuzda verileri saklamak için kullanacağımız Azure SQL Database‘i örneğimize başlarken oluşturmamız gerekiyor. Bunun için Azure portali üzerinde sol alt kısımda bulunan New sekmesine tıklayarak Data Services seçeneğini seçiyoruz. Devamında SQL Database servisini seçip Custom Create diyerek ilgili sayfaya erişiyoruz.

sqldbcreate

Yukarıdaki resimde olduğu gibi ilgili servis için gerekli olan kısımları doldurarak ilerliyoruz. Biz örneğimizde ilk kısımda veri tabanı adı olarak AltintasDb veriyoruz. Standart S0 seçeneği bizler için yeterli olacağından bu seçenekleri değiştirmiyoruz. Ardından daha önce oluşturulmuş bir server’ımız yoksa New SQL database server seçeneğini seçerek ilerliyoruz.

sqldbcreate2

Bir sonraki ekranda ilgili SQL DB server‘ına erişim için kullanacağımız yetkili bir kullanıcı için login ve password belirliyoruz. Datacenter için bölge seçimini yapıp aşağıda bulunan iki seçeneği de aktif hale getiriyoruz. Burada ilk seçenekte Azure’a ait kullanmış olduğumuz diğer servislerin bu database server’ına erişimi için yetki vermiş oluyoruz. İkinci seçenekte ise Azure SQL Database‘in en son versiyonu olan V12 versiyonu olacak şekilde database’i oluşturacağımızı seçiyoruz. Örneğimiz için bu seçenek oldukça önemli çünkü Azure SQL Database için Table Partitioning desteği V12 ile beraber gelen bir özellik olup daha önceki versiyonlarında bu özellik desteklenmemekteydi. Azure SQL Database V12 ile gelen yeniliklere göz atmak isterseniz daha önce yapmış olduğum bir webcast’e ait kayda  bu linkten erişebilirsiniz.

İlgili işlemleri tamamladığımızda Azure SQL Database server‘ı çok kısa bir sürede ayağa kalkacak ve kullanıma hazır hale gelecektir. Bu aşamadan sonra Azure SQL Database servisinde oluşturduğumuz AltintasDb adındaki veri tabanı üzerindeki işlemleri daha rahat yapabilmek için SQL Server Management Studio (SSMS) ile bu database server’ına bağlantı sağlıyoruz. ServerName olarak Azure SQL Database servisinin Dashboard ekranında bulunan servername’i, SQL Server Authentication kısmında ise kullanıcı adı ve şifre olarak az önce oluşturduğumuz yetkili kullanıcı adı ve şifresini giriyoruz. Burada bağlantı kısmında hata alınırsa Azure SQL Database‘e bağlantı için şu an kullanmakta olduğumuz pc’nin IP Adresi firewall rule olarak eklenmesi gerekmektedir. Bu işlem için de SSMS 2016 sürümünde çıkan pop-up ekranından veya Azure portal üzerinde bulunan SQL Database servisindeki Configure kısmından IP Adresimiz için rule tanımlayabilmekteyiz.

Bu aşamadan sonra artık Table Partitioning kullanarak her bir güne ait verilerin ayrı bir partition’da tutulmasını sağlayacak şekilde Partition Function, Partition Scheme ve tablomuzu oluşturuyoruz.

İlk olarak her bir güne ait verileri ayrı bir partition’da tutmak istediğimiz için her bir gün için bir partition oluşturacak şekilde pf_DayOfTheYear isminde bir partition function oluşturuyoruz. Bunun için gerekli olan kodu aşağıda bulabilirsiniz:

CREATE PARTITION FUNCTION [pf_DayOfTheYear](DATE) AS RANGE LEFT FOR VALUES 
(
'2016-01-01',
'2016-01-02',
'2016-01-03',
'2016-01-04',
'2016-01-05',
'2016-01-06',
'2016-01-07',
'2016-01-08',
'2016-01-09',
'2016-01-10',
'2016-01-11',
'2016-01-12',
'2016-01-13',
'2016-01-14',
'2016-01-15',
'2016-01-16',
'2016-01-17',
'2016-01-18',
'2016-01-19',
'2016-01-20',
'2016-01-21',
'2016-01-22',
'2016-01-23',
'2016-01-24',
'2016-01-25',
'2016-01-26',
'2016-01-27',
'2016-01-28',
'2016-01-29',
'2016-01-30',
'2016-01-31',
'2016-02-01',
'2016-02-02',
'2016-02-03',
'2016-02-04',
'2016-02-05',
'2016-02-06',
'2016-02-07',
'2016-02-08',
'2016-02-09',
'2016-02-10',
'2016-02-11',
'2016-02-12',
'2016-02-13',
'2016-02-14',
'2016-02-15',
'2016-02-16',
'2016-02-17',
'2016-02-18',
'2016-02-19',
'2016-02-20',
'2016-02-21',
'2016-02-22',
'2016-02-23',
'2016-02-24',
'2016-02-25',
'2016-02-26',
'2016-02-27',
'2016-02-28',
'2016-02-29',
'2016-03-01',
'2016-03-02',
'2016-03-03',
'2016-03-04',
'2016-03-05',
'2016-03-06',
'2016-03-07',
'2016-03-08',
'2016-03-09',
'2016-03-10',
'2016-03-11',
'2016-03-12',
'2016-03-13',
'2016-03-14',
'2016-03-15',
'2016-03-16',
'2016-03-17',
'2016-03-18',
'2016-03-19',
'2016-03-20',
'2016-03-21',
'2016-03-22',
'2016-03-23',
'2016-03-24',
'2016-03-25',
'2016-03-26',
'2016-03-27',
'2016-03-28',
'2016-03-29',
'2016-03-30',
'2016-03-31',
'2016-04-01',
'2016-04-02',
'2016-04-03',
'2016-04-04',
'2016-04-05',
'2016-04-06',
'2016-04-07',
'2016-04-08',
'2016-04-09',
'2016-04-10',
'2016-04-11',
'2016-04-12',
'2016-04-13',
'2016-04-14',
'2016-04-15',
'2016-04-16',
'2016-04-17',
'2016-04-18',
'2016-04-19',
'2016-04-20',
'2016-04-21',
'2016-04-22',
'2016-04-23',
'2016-04-24',
'2016-04-25',
'2016-04-26',
'2016-04-27',
'2016-04-28',
'2016-04-29',
'2016-04-30',
'2016-05-01',
'2016-05-02',
'2016-05-03',
'2016-05-04',
'2016-05-05',
'2016-05-06',
'2016-05-07',
'2016-05-08',
'2016-05-09',
'2016-05-10',
'2016-05-11',
'2016-05-12',
'2016-05-13',
'2016-05-14',
'2016-05-15',
'2016-05-16',
'2016-05-17',
'2016-05-18',
'2016-05-19',
'2016-05-20',
'2016-05-21',
'2016-05-22',
'2016-05-23',
'2016-05-24',
'2016-05-25',
'2016-05-26',
'2016-05-27',
'2016-05-28',
'2016-05-29',
'2016-05-30',
'2016-05-31',
'2016-06-01',
'2016-06-02',
'2016-06-03',
'2016-06-04',
'2016-06-05',
'2016-06-06',
'2016-06-07',
'2016-06-08',
'2016-06-09',
'2016-06-10',
'2016-06-11',
'2016-06-12',
'2016-06-13',
'2016-06-14',
'2016-06-15',
'2016-06-16',
'2016-06-17',
'2016-06-18',
'2016-06-19',
'2016-06-20',
'2016-06-21',
'2016-06-22',
'2016-06-23',
'2016-06-24',
'2016-06-25',
'2016-06-26',
'2016-06-27',
'2016-06-28',
'2016-06-29',
'2016-06-30',
'2016-07-01',
'2016-07-02',
'2016-07-03',
'2016-07-04',
'2016-07-05',
'2016-07-06',
'2016-07-07',
'2016-07-08',
'2016-07-09',
'2016-07-10',
'2016-07-11',
'2016-07-12',
'2016-07-13',
'2016-07-14',
'2016-07-15',
'2016-07-16',
'2016-07-17',
'2016-07-18',
'2016-07-19',
'2016-07-20',
'2016-07-21',
'2016-07-22',
'2016-07-23',
'2016-07-24',
'2016-07-25',
'2016-07-26',
'2016-07-27',
'2016-07-28',
'2016-07-29',
'2016-07-30',
'2016-07-31',
'2016-08-01',
'2016-08-02',
'2016-08-03',
'2016-08-04',
'2016-08-05',
'2016-08-06',
'2016-08-07',
'2016-08-08',
'2016-08-09',
'2016-08-10',
'2016-08-11',
'2016-08-12',
'2016-08-13',
'2016-08-14',
'2016-08-15',
'2016-08-16',
'2016-08-17',
'2016-08-18',
'2016-08-19',
'2016-08-20',
'2016-08-21',
'2016-08-22',
'2016-08-23',
'2016-08-24',
'2016-08-25',
'2016-08-26',
'2016-08-27',
'2016-08-28',
'2016-08-29',
'2016-08-30',
'2016-08-31',
'2016-09-01',
'2016-09-02',
'2016-09-03',
'2016-09-04',
'2016-09-05',
'2016-09-06',
'2016-09-07',
'2016-09-08',
'2016-09-09',
'2016-09-10',
'2016-09-11',
'2016-09-12',
'2016-09-13',
'2016-09-14',
'2016-09-15',
'2016-09-16',
'2016-09-17',
'2016-09-18',
'2016-09-19',
'2016-09-20',
'2016-09-21',
'2016-09-22',
'2016-09-23',
'2016-09-24',
'2016-09-25',
'2016-09-26',
'2016-09-27',
'2016-09-28',
'2016-09-29',
'2016-09-30',
'2016-10-01',
'2016-10-02',
'2016-10-03',
'2016-10-04',
'2016-10-05',
'2016-10-06',
'2016-10-07',
'2016-10-08',
'2016-10-09',
'2016-10-10',
'2016-10-11',
'2016-10-12',
'2016-10-13',
'2016-10-14',
'2016-10-15',
'2016-10-16',
'2016-10-17',
'2016-10-18',
'2016-10-19',
'2016-10-20',
'2016-10-21',
'2016-10-22',
'2016-10-23',
'2016-10-24',
'2016-10-25',
'2016-10-26',
'2016-10-27',
'2016-10-28',
'2016-10-29',
'2016-10-30',
'2016-10-31',
'2016-11-01',
'2016-11-02',
'2016-11-03',
'2016-11-04',
'2016-11-05',
'2016-11-06',
'2016-11-07',
'2016-11-08',
'2016-11-09',
'2016-11-10',
'2016-11-11',
'2016-11-12',
'2016-11-13',
'2016-11-14',
'2016-11-15',
'2016-11-16',
'2016-11-17',
'2016-11-18',
'2016-11-19',
'2016-11-20',
'2016-11-21',
'2016-11-22',
'2016-11-23',
'2016-11-24',
'2016-11-25',
'2016-11-26',
'2016-11-27',
'2016-11-28',
'2016-11-29',
'2016-11-30',
'2016-12-01',
'2016-12-02',
'2016-12-03',
'2016-12-04',
'2016-12-05',
'2016-12-06',
'2016-12-07',
'2016-12-08',
'2016-12-09',
'2016-12-10',
'2016-12-11',
'2016-12-12',
'2016-12-13',
'2016-12-14',
'2016-12-15',
'2016-12-16',
'2016-12-17',
'2016-12-18',
'2016-12-19',
'2016-12-20',
'2016-12-21',
'2016-12-22',
'2016-12-23',
'2016-12-24',
'2016-12-25',
'2016-12-26',
'2016-12-27',
'2016-12-28',
'2016-12-29',
'2016-12-30',
'2016-12-31'
)

Ardından bu function’ı kullanacak şekilde ps_DayOfTheYear isminde bir partition scheme oluşturuyoruz:

CREATE PARTITION SCHEME [ps_DayOfTheYear] AS PARTITION [pf_DayOfTheYear] ALL TO ([PRIMARY])

Bu işlemin ardından table partitioning yapacak şekilde oluşturduğumuz partition scheme’yı kullanan LogTable ismindeki tablomuzu aşağıdaki şekilde create ediyoruz:

CREATE TABLE dbo.LogTable
(
LogId int identity(1,1),
Ad nvarchar(50),
ResimAd nvarchar(50),
Zaman datetime,
X int,
Y int,
PartitionNo AS (CAST(Zaman as date)) PERSISTED
CONSTRAINT [PK_LogTable] PRIMARY KEY CLUSTERED 
(
	PartitionNo ASC,
	LogId ASC
)ON ps_DayOfTheYear (PartitionNo)
)

Tablomuzda LogId identity değer üreten bir kolon olup PartitionNo ile birlikte Primary Key oluşturmaktadır. Ad, ResimAd, Zaman, X ve Y kolonları uygulama tarafından gönderilen bilgileri tutmak için oluşturulmuştur. PartitionNo kolonu ise Persisted Computed Column olup, Zaman kolonunun değerini date veritipine dönüştürerek kalıcı olarak tutmaktadır. Aynı zamanda PartitionNo kolonu bizim partition scheme‘mız tarafından kullanılacak ve bu kolondaki değerlere göre farklı günler farklı partition’larda saklanacaktır.

Bu aşamadan sonra tablomuz da hazır olduğuna göre Azure Stream Analytics job‘ının output ekranına geri dönebiliriz. Burada output olarak Azure SQL Database tercihini yapıp server, veritabanı, kullanıcı adı, şifre vb. istenilen bilgileri doğru bir şekilde giriyoruz. Aynı zamanda tablo kısmına da AltintasDb altınta oluşturduğumuz LogTable ismini giriyoruz. İşlemler tamamlandığında output’u oluşturup job’ı sayfanın alt kısmından Start butonuna basarak başlatıyoruz.

Yapmış olduğumuz senaryomuzu test etmek için daha önceki yazılarda olduğu gibi uygulamamız üzerinden resimlere tıklayarak click stream verisinin Azure Event Hubs’a yönlendirilmesini sağlıyoruz. Ardından bu veriler Azure Stream Analytics ile analiz edilecek ve job’ın output seçeneğinde belirttiğimiz Azure SQL Database’de bulunan AltintasDb veritabanındaki LogTable adlı tablomuza insert edilecektir. Yalnız burada dikkat ederseniz standart tek bir partition’dan oluşan bir tablo kullanmak yerine ölçeklenebilirlik ve yönetilebilirlik açısından daha performanslı ve faydalı olması için LogTable tablomuzu her günü ayrı bir partition’da tutacak şekilde oluşturduk. Bu nedenle senaryomuz gereği farklı günlerde uygulamayı kullanarak click-stream verisinin tablomuza nasıl insert edildiğini görmek istiyoruz.

Farklı tarihlerde gerekli verinin gönderilmesinin ardından tablomuzdaki verileri sorgulamak için aşağıdaki sorgumuzu çalıştırıyoruz:

SELECT *
FROM dbo.LogTable

Sorgumuzu çalıştırdığımızda sonuçlar aşağıdaki gibi geliyor:

azuresqldbsonuc

Sonuçlardan gördüğümüz kadarıyla uygulamamız üzerinden click- stream olarak gelen veriler 4 Eylül, 5 Eylül, 6 Eylül ve ekranda görmesek de 7 Eylül tarihlerinde tabloya insert edilmiş. Toplamda 48 adet veri tablomuzda bulunmakta. Peki LogTable tablomuz için oluşturduğumuz partition’lar doğru bir şekilde çalışıyor mu onu da test edelim. Her güne ait veriler ayrı bir partition’da tutuluyor mu bakalım. Bunun için aşağıdaki kod bloğunu çalıştırmamız yeterli olacaktır:

SELECT o.name as TabloAdı,
		i.name as IndexAdı, 
		partition_id, 
		partition_number, 
		[rows] as SatırSayısı
FROM sys.partitions p
INNER JOIN sys.objects o ON o.object_id=p.object_id
INNER JOIN sys.indexes i ON i.object_id=p.object_id and p.index_id=i.index_id
WHERE 
	o.name LIKE '%LogTable%'
	AND [rows] > 0
ORDER BY o.name, i.name DESC, partition_number ASC

Bu sorguda LogTable tablomuzda bulunan partition’lar için her bir partition’da ne kadar veri tutulduğu gösterilmektedir. Sorgunun sonucu aşağıdaki gibidir:

partitionsonuc

Sonuçlardan da görülebileceği üzere LogTable tablomuzda şu ana kadar 4 ayrı partition bulunmaktadır. 248 nolu partition (4 Eylül tarihini tutan partition) 6 kayıt tutarken, 249 nolu partition (5 Eylül) 17, 250 nolu partition (6 Eylül) 21 ve 251 nolu partition (7 Eylül) 4 kayıt tutmaktadır. Görüleceği üzere her güne ait veriler ayrı partition’larda tutulmaktadır. Bu verilerin toplamı tablomuzda tutulan toplam satır sayısı olan 48’e eşittir.

Bu makalemizde çok yüksek miktarda veri üreten sistemlerden stream olarak gelen verilerin Azure SQL Database‘de daha performanslı, ölçeklenebilir ve yönetilebilir olmasını sağlamak için oluşturduğumuz Table Partitioning  yapısını kullanarak parçalı bir şekilde tutulmasını sağladığımız yapıyı ele aldık. Örnek demomuz üzerinde senaryomuzu test ettik ve sonuçları inceledik. Advanced Data Analytics başlığı altındaki diğer yazılarımızla yine karşınızda olacağız. Bir sonraki makalemizde tekrar görüşmek üzere…

Umarım faydalı olur… Keyifli okumalar…

Yazar: Abdullah ALTINTAŞ

MERGE Type 4 Slowly Changing Dimension (SCD) Kullanımı

Microsoft SQL Server‘da MERGE komutu ile neler yapılabildiğini serinin daha önceki yazılarında sizlerle paylaşmıştık. Aşağıda MERGE komutunun genel kullanımı, MERGE ile Slowly Changing Dimension (SCD) Type 1 , Type 2 ve Type 3 çözümlerinin nasıl yapılabileceğini aktardığım yazılarım mevcut. Yazının devamına geçmeden bunlara göz atmak isteyebilirsiniz. Eğer ihtiyacınız sadece MERGE komutu ile SCD Type 4 işleminin nasıl yapılabildiği ise direkt olarak makalenin devamına geçebilirsiniz.

  • SQL Server MERGE Komutu Kullanımı ve Performans Önerileri

http://www.abdullahaltintas.com/index.php/sql-server-merge-komutu-kullanimi-ve-performans-onerileri/

  • MERGE Type 1 Slowly Changing Dimension (SCD) Kullanımı

http://www.abdullahaltintas.com/index.php/merge-type-1-slowly-changing-dimension-scd-kullanimi/

  • MERGE Type 2 Slowly Changing Dimension (SCD) Kullanımı

http://www.abdullahaltintas.com/index.php/merge-type-2-slowly-changing-dimension-scd-kullanimi/

  • MERGE Type 3 Slowly Changing Dimension (SCD) Kullanımı

http://www.abdullahaltintas.com/index.php/merge-type-3-slowly-changing-dimension-scd-kullanimi/

Bu makalemizde SQL Server’da kullanılan MERGE komutu yardımı ile Type 4 Slowly Changing Dimension (SCD) işleminin nasıl gerçekleştirilebileceğini ele alacağız. Serinin diğer yazılarında olduğu gibi isterseniz öncelikle Type 4 SCD‘nin ne olduğundan kısaca bahsedelim:

Serinin önceki yazılarında bahsettiğimiz gibi MERGE komutu ile yazdığımız SCD Type 1 yöntemi ile kaynaktan hedef  tabloya daha önce aktarımı yapılmış olan ve ardından kaynakta tekrar güncellenen kayıtlar, hedef tabloda overwrite edilerek yani var olan kaydın üzerinde güncellenerek tutulmaktaydı. Type 2 SCD ile aktarımı yapılan kayıtlarda ise daha önce aktarımı yapılmış olan kayıt pasife çekilerek güncellenmek istenen kaydın yeni halini tutan ve aktif olacak olan yeni bir kayıt tabloya eklenmekteydi. Yani bu yöntem ile verinin historical hali tarihsel versiyonu tutulabilmekteydi. Type 3 SCD kullanılarak yapılan tasarımda ise verinin yine tarihsel geçmişi tutulabilmekteydi ancak bu yöntemde satır bazlı olarak değil var olan kaydın üzerinde tasarım aşamasında eklenen kolonlarda  (denormalize bir şekilde) tarihsel geçmiş tutulabilmekteydi. Type 4 SCD yönteminde ise kaynaktan hedefe aktarımı yapılmış olan ve ardından kaynakta tekrar güncellenen kayıtlar için hedef tabloda verinin en güncel hali tutulmaktadır. Ancak verinin historical geçmişini yani tarihsel versiyonlarını tutabilmek için ayrı bir tablo oluşturulmakta ve MERGE komutu ile verinin güncellenmeden önceki eski hali bu tabloya insert edilmektedir. Yani Type 4 SCD ile verinin tarihsel geçmişi ayrı bir tabloda tutulmaktadır. Bir nevi bu tablo arşiv tablo görevi görmektedir.

Bu kadar teorik bilgiden sonra şimdi isterseniz örneğimize geçelim. Serinin önceki yazılarında olduğu gibi benzer tabloları kullanacağız. Sadece gerekli değişiklikleri yaparak kodumuzu oluşturacağız. Demomuz için gerekli olan tabloların create scriptleri aşağıdaki gibidir:

create table EmployeeSource
(
EmployeeID int,
FirstName nvarchar(50),
LastName nvarchar(50),
Title nvarchar(100),
RecruitmentDate datetime,
Salary decimal,
IsActive bit
)
GO

create table EmployeeTarget
(
EmployeeID int,
FirstName nvarchar(50),
LastName nvarchar(50),
Title nvarchar(100),
RecruitmentDate datetime,
Salary decimal,
IsActive bit
)
GO

create table EmployeeTargetArchive
(
EmployeeID int,
FirstName nvarchar(50),
LastName nvarchar(50),
Title nvarchar(100),
RecruitmentDate datetime,
Salary decimal,
IsActive bit,
StartDate datetime,
EndDate datetime
)
GO

Burada dikkat etmemiz gereken nokta var olan kaynak ve hedef tablolarımıza ilave olarak bir de tarihsel veriyi tutmak açısından EmployeeTargetArchive isminde yeni tablo ekledik. Aynı zamanda bu tabloda ilgili verinin geçerlilik tarihlerini tutabilmek için de StartDate ve EndDate kolonlarını ekledik.

Şimdi de örneğimiz için kaynak ve hedef tablomuza biraz veri girişi yapalım:

insert into dbo.EmployeeSource
values
(1, N'Abdullah', N'Altıntaş', N'Takım Lideri', '20120721', 2000, 1),
(2, N'İsmail', N'Adar', N'DBA', '20090101', 1500, 1),
(3, N'Yusuf', N'Boğatepe', N'Danışman', '20140103', 1000, 1),
(5, N'Şeydanur', N'Sandıkçı', N'Danışman', GETDATE(), 1000, 1)
GO

insert into dbo.EmployeeTarget 
values
(1, N'Abdullah', N'Altıntaş', N'Takım Lideri', '20120721', 1000, 1),
(2, N'İsmail', N'Adar', N'DBA', '20090101', 1500, 1),
(3, N'Yusuf', N'Boğatepe', N'Danışman', '20140103', 1000, 1),
(4, N'Merve', N'Sağlam', N'Kıdemli Danışman', '20150618', 1800, 1)
GO

Verileri insert ettikten sonra tablomuzu sorgulayalım ve gelen sonuçları ekranda inceleyelim:

select * from dbo.EmployeeSource
select * from dbo.EmployeeTarget
select * from dbo.EmployeeTargetArchive

Sorguyu çalıştırdığımızda verileri aldığımız kaynak tablomuzu temsil eden EmployeeSource tablosu ile verileri aktarmayı amaçladığımız hedef tablomuz EmployeeTarget tablosunda bazı verilerin farklı olduğunu görebilirsiniz. Örneğimizde 1 nolu id ye sahip Abdullah Altıntaş’ın kaynak tablodaki maaş bilgisi değişmiş ve 1000 yerine 2000 değerini almış, 2 ve 3 nolu id ye ait kayıtlarda herhangi bir değişiklik yapılmamıştır. Ayrıca kaynak tabloda hedef tablosunda henüz bulunmayan 5 nolu id ye sahip Şeydanur Sandıkçı eklenmiş olmakla beraber hedef tablosunda artık kaynak tabloda bulunmayan 4 nolu id ye sahip Merve Sağlam kaydı bulunmaktadır. Aynı zamanda yeni oluşturduğumuz arşiv datayı tutacak olan EmployeeTargetArchive tablosunda henüz bir kod çalıştırmadığımız için hiç bir veri bulunmamaktadır. MERGE komutunu çalıştırdıktan sonra tarihsel geçmişi tutulacak olan veriler bu tabloya aktarılacaktır.

scdtype4baslangic

Örneğimizdeki amacımız kaynak EmployeeSource tablomuza yeni eklenen ve henüz hedef tablomuz EmployeeTarget‘a eklenmemiş olan kayıtların INSERT edilmesini sağlamak ve daha önce aktarımı yapıldıktan sonra kaynak EmployeeSource tablomuzda güncellenmiş kayıtların güncel hallerinin EmployeeTarget tablosuna aktarılmasını sağlamak olacaktır. Yalnız burada Type 4 SCD yapısını kullanarak aktarım yapacağımız için hedefte var olan kayıt üzerinde overwrite ile gerekli değişiklik yapılacak ve güncel bilgi hedef tablomuz olan EmployeeTarget‘ta tutulacaktır. Ayrıca güncellenen verinin eski versiyonu yani tarihsel geçmişi de EmployeeTargetArchive tablosuna insert edilecek ve dolayısıyla historical verinin ayrı bir tabloda tutulması sağlanacaktır.

Bu isteklerimizi karşılayabilmek için MERGE komutu ile aşağıdaki Type 4 SCD kodunu oluşturup çalıştıracağız:


-- Geçici olarak verilerin aktarılacağı Temp Table görevi gören Table Variable tanımlıyoruz.
DECLARE @ArchiveTemp TABLE
(
EmployeeID int,
FirstName nvarchar(50),
LastName nvarchar(50),
Title nvarchar(100),
RecruitmentDate datetime,
Salary decimal,
IsActive bit,
MergeAction nvarchar(10)
)

-- Merge komutumuzu aşağıdaki şekilde oluşturuyoruz.
MERGE INTO dbo.EmployeeTarget as t
	USING dbo.EmployeeSource as s
	ON t.EmployeeID = s.EmployeeID	
	WHEN NOT MATCHED BY TARGET THEN
		INSERT (EmployeeID, FirstName, LastName, Title, RecruitmentDate, Salary, IsActive)
		VALUES (s.EmployeeID, s.FirstName, s.LastName, s.Title, s.RecruitmentDate, s.Salary, 1)
	WHEN MATCHED AND 
				ISNULL(t.FirstName, '') <> ISNULL(s.FirstName, '')
				OR ISNULL(t.LastName, '') <> ISNULL(s.LastName, '')
				OR ISNULL(t.Title, '') <> ISNULL(s.Title, '')
				OR ISNULL(t.RecruitmentDate, '') <> ISNULL(s.RecruitmentDate, '')
				OR ISNULL(t.Salary, '') <> ISNULL(s.Salary, '')
				OR ISNULL(t.IsActive, '') <> ISNULL(s.IsActive, '')
		THEN UPDATE SET  
				t.FirstName = s.FirstName,
				t.LastName = s.LastName,
				t.Title = s.Title,
				t.RecruitmentDate = s.RecruitmentDate,
				t.Salary = s.Salary,
				t.IsActive = s.IsActive
	OUTPUT 	DELETED.EmployeeID, 
			DELETED.FirstName, 
			DELETED.LastName, 
			DELETED.Title, 
			DELETED.RecruitmentDate, 
			DELETED.Salary, 
			DELETED.IsActive,
			$Action as MergeAction
	INTO @ArchiveTemp (EmployeeID, FirstName, LastName, Title, RecruitmentDate, Salary, IsActive, MergeAction);

-- Güncellenen kaydın historical halini de son olarak Arşiv tablomuza ekleyelim.
INSERT INTO dbo.EmployeeTargetArchive (EmployeeID, FirstName, LastName, Title, RecruitmentDate, Salary, IsActive, StartDate)
SELECT EmployeeID, FirstName, LastName, Title, RecruitmentDate, Salary, IsActive, 
		ISNULL((SELECT MAX(EndDate) FROM dbo.EmployeeTargetArchive
		WHERE EmployeeID = Tmp.EmployeeID), RecruitmentDate)
FROM @ArchiveTemp as Tmp
WHERE MergeAction = 'UPDATE'

-- Arşiv tablosunda verilerin aktif olup olmadığını ve güncellenme tarihlerini set edelim.
UPDATE eta
SET eta.EndDate = GETDATE()
FROM dbo.EmployeeTargetArchive as eta
INNER JOIN @ArchiveTemp as tmp
ON eta.EmployeeID = tmp.EmployeeID
WHERE eta.EndDate IS NULL

Yukarıdaki kodları çalıştırdığımızda istemiş olduğumuz sonuçları elde edeceğiz. Kaynak tablomuz EmployeeSource, hedef tablomuz EmployeeTarget ve arşiv tablomuz EmployeeTargetArchive tablolarımızın son durumunu görmek için tekrar sorgulayalım. Sonuçlar aşağıdaki gibi olacaktır:

scdtype4son

Sonuçları incelediğimizde hedefte olmayan ve kaynak tabloda bulunan 5 no‘lu id’ye sahip Şeydanur Sandıkçı‘nın hedef tablomuz olan EmployeeTarget tablosuna eklendiğini görmekteyiz. Aynı zamanda daha önce kaynaktan hedef tabloya aktarımı yapılmış olan 1 no‘lu id’ye sahip Abdullah Altıntaş‘ın maaş bilgisinin tutulduğu Salary kolonundaki değerin de 2000 olarak güncellendiğini ve güncel değerin EmployeeTarget tablosu üzerine yazıldığını görmekteyiz. Son olarak Abdullah Altıntaş‘ın güncellenmeden önceki maaş bilgisini (1000) içeren eski kaydın da historical amaçlı olarak EmployeeTargetArchive tablosuna eklendiğini görebilirsiniz. Ayrıca arşiv tablosuna aktarılan bu kaydın IsActive kolonundaki değerin 0 yani pasif olduğunu görebilir ve StartDateEndDate kolonlarında da bu kaydın geçerli olduğu tarih aralığını bulabilirsiniz.

Peki aynı kayıt üzerinde yeni bir güncelleme yapıldığında sonuçlar nasıl olacak? Abdullah Altıntaş‘ın maaş bilgisi üzerinde tekrar bir güncelleme yapalım:

update EmployeeSource
set Salary = 4000
where EmployeeID =1

Ardından da Type 4 SCD ihtiyacımızı karşılayacak şekilde yazmış olduğumuz MERGE komutunu tekrar çalıştıralım ve tablolarımızı tekrar sorgulayalım:

scdtype4son2

Görmüş olduğunuz gibi en güncel veri hedef tablomuzda overwrite edilerek tutulmakta ve ilgili kaydın eski versiyonu ise arşiv tablosuna geçerlilik tarihlerini de aktaracak şekilde insert edilmektedir. Type 4 Slowly Changing Dimension yönetimi ile yapmış olduğumuz tasarım sayesinde verinin tarihsel geçmişini ayrı bir tabloda saklayabildiğimizi bu şekilde görmüş oluyoruz.

Son olarak Type 4 SCD ile yazdığımız MERGE ifadesini de içeren kod bloğunu kısaca açıklayalım:

  • İlk olarak geçici olarak verilerin tutulacağı bir tane table variable tanımlıyoruz. Burada temp table oluşturup onu da kullanabilirsiniz.
  • İkinci kod bloğunda asıl MERGE komutu işlemleri yapılıyor. İlgili kaydın hedef ve kaynak tablolarda var olup olmadığı kontrol edildikten sonra eğer ilgili kayıt hedef tablosunda yoksa WHEN NOT MATCHED BY TARGET ifadesinde ilgili kayıt hedef tablomuza insert ediliyor.
  • Ardından ilgili veri daha önce hedef tablosuna aktarıldıysa ve üzerinde değişiklik yapıldıysa ne yapılması gerektiğini belirtmek için WHEN MATCHED ifadesi ile bu kontrol gerçekleştiriliyor ve kaynaktan gelen güncel bilgiler hedef tablosunda update ediliyor.
  • Merge komutunun OUTPUT kısmında değişikliğe uğrayan kayıtların eski halleri alınarak en başta oluşturulan table variable’a insert ediliyor.
  • MERGE komutu tamamlandıktan sonra yazılan INSERT komutu ile table variable’da bulunan değişikliğe uğramış kayıtların eski versiyonları asıl arşiv tablomuza insert ediliyor.
  • Son UPDATE komutunda ise ilgili kaydın geçerlilik tarihlerini güncellemek için EndDate kolonu güncelleniyor.

Bu yazımızda SQL Server’da bulunan MERGE komutu kullanılarak Type 4 Slowly Changing Dimension (SCD) yapısının nasıl tasarlanabileceğini ele almış olduk. Yaptığımız örnek ile senaryomuzu uyguladık ve sonuçlarını gözlemledik. Aynı zamanda daha önceki yazılarımızda bahsettiğimiz Type 1, Type 2, Type 3 ve bu yazıda ele aldığımız Type 4 SCD yapılarının çalışma şekillerini karşılaştırdık.  Başka yazılarla tekrar görüşmek üzere…

Umarım faydalı olur. Keyifli okumalar…

Yazar: Abdullah ALTINTAŞ

Not: Destekleri için Zafer Dörter‘e teşekkür ederim 🙂 Emeğine, aklına sağlık Zafer hocam 🙂