Kurumların veri odaklı stratejileri benimsemesi ile birlikte artık dijital çağın olmazsa olmazı olan veri analizi, katlanarak büyüyen veri dünyasını doğru anlayabilmek için sürekli kendini geliştirmek zorunda.

Nitekim halihazırda sektörde kullanılsa da 2021 yılında sektörde daha da sık duyacağımız terimler olacak. Yazımızda bu terimleri sizler için basitçe özetledik.

“Data Meshes”,“Data Democratization”, “Continuous intelligence Intelligence”, “DataOps”, ve “Augmented Data Management” … Bu terimler rekabet ortamında olmazsa olmazınız veri analizinin güncel trendlerini tanımlıyor. Bu eğilimler aslında öyle yeni bir buluş değil; mevcut teknolojilerin gelişmesi ile oluşan kavramlar.

Gelin bu eğilimleri birlikte daha yakından tanıyalım.

Data Meshes (Veri Ağı)

Büyük bir ivmeyle o kadar fazla veri birikiyor ki, kurumunuz daha veri odaklı sisteme dönüşme aşamasındayken bile radikal değişimler yaşanabiliyor. Örneğin, verilerin merkezileştirilmesi, tek bir yerde toplanması ve analizinin merkezi bir veri ekibi tarafından gerçekleştirilmesi artık eski bir yöntem. Data Meshes sayesinde birden çok veri ambarında tutulan verilerin bir araya getirilmesi sağlandı. Verilerin tüketimini, depolanmasını, dönüştürülmesini ve çıktısını tek bir merkezi veri gölünde işleyen geleneksel monolitik veri altyapılarının aksine Data Meshes ile farklı konumlar ve kuruluşlar arasında dağıtık veriler bağlanabiliyor. İşte bu yapıyla, merkezi bir çalışma sistemi yerine birlikte çalışabilme imkânı sağlamak mümkün. Data Meshes, verilerin yüksek düzeyde erişilebilir, kolayca keşfedilebilir, güvenli ve erişime ihtiyaç duyan uygulamalarla birlikte çalışabilir olmasını sağlıyor. Bu yeni nesil veri ağlarıyla, bulut uygulamalarını şirket içi veya bulut ortamında bulunan hassas verilere bağlamak ve merkezileştirilemeyen çeşitli veri kaynaklarından sanal veri katalogları oluşturmak mümkün. Üstelik verileri tek bir havuzda birleştirmeden analitik ve makine öğrenimi eğitimi için sanal veri ambarları veya veri gölleri oluşturulabiliyor. Ayrıca uygulama geliştirme ekiplerine, bu verilere “nasıl” erişeceklerini düşünmeden, çeşitli veri depolarındaki verileri sorgulama yolları sağlanabiliyor.   

Data Democratization

Verinin demokratikleşmesi oldukça ilginç bir tanım, öyle değil mi? Data Democratization özetle, IT departmanı katılımı gerekmeksizin, herhangi bir kullanıcı için dijital verilerin erişilebilir hale getirilmesi olarak tanımlanabilir. Hızlı olanın kazandığı rekabet ortamında verilerin merkezi bir birime bağlı olmadan kurum içi herkesçe kolayca ulaşılabilir ve yorumlanabilir olması durumunda karar verme süreçlerinin nasıl hızlanacağını bir düşünün. Artık herhangi bir arama motorunda arama yapmak gibi veriler de aynı doğal dille taranabilir.  Tüm verilerin kataloglanmış bir veri dökümü ile ekipteki veri oluşturucular, veri analistleri ve veri tüketicileri iş birliği içerisinde verilerin üzerinde çalışabilir. Kullanıcıların bu yöntemle verilere ulaşmaları ve anlamaları çok daha kolaylaşır, böylece her bir birim için karar verme süreci hızlanır. Böylece fırsatları ortaya çıkarmak çok daha kolay bir hale gelir. Veri odaklı kurumlarda “erişilebilir verilere”, kurum içinde herkes etkili iş kararları vermek için kolayca ulaşabilir, yönetebilir ve veriler üzerinde iş birliği içerisinde çalışabilir.  

Continuous Intelligence (CI)

Yine dilimizde tam karşılığı olmayan bu kavramı “sürekli zekâ” olarak tanımlayabiliriz. Sürekli zekâ, artırılmış analitik, olay akışı işleme, optimizasyon, iş kuralı yönetimi ve makine öğreniminden yararlanarak veri kaynağı ve hacimlerinin sayısına bakılmaksızın, tüm verilere kolayca ulaşılmasını sağlar. Bu anlamda analiz sürecini hızlandıran modern makine odaklı bir yaklaşımdır. Temelde verileri ve analitiğini işlemsel iş süreçleri ve diğer gerçek zamanlı etkileşimlerle birleştirir, otomatikleştirir ve işlemleri sürekli hale getirir. Böylelikle bu sistemler, insanları aşırı yüklenmeden koruyarak yüksek hacimli verileri hızlı bir şekilde işleyebilir.  Ancak bu sistemden profesyonel olarak faydalanılabilmesi için veri ve analiz ekipleri, uygulama mimarları, uygulama geliştiricileri, iş süreci yönetimi analistleri ve iş analistleri ile birlikte çalışmalıdır.

DataOps (Data Operations)

DataOps, bir kuruluştaki veri yöneticileri ve veri tüketicileri arasındaki veri akışlarının iletişimini, entegrasyonunu ve otomasyonunu iyileştirmeye odaklanan, iş birliğine dayalı bir veri yönetimi uygulamasıdır. DataOps bir ürün veya çözüm değildir. Veri analitiğinin kalitesini artırmak ve döngü süresini azaltmak için analitik ekipler ve veri ekipleri tarafından kullanılan otomatikleştirilmiş, süreç odaklı bir metodolojidir. Çok çeşitli açık kaynak araçları ve çerçevelerini destekleyecek dağıtılmış bir veri mimarisinin tasarlanması, uygulanması ve sürdürülmesine yönelik çevik bir yaklaşım olarak da tanımlayabiliriz. Genel anlamda DataOps‘un amacı, büyük veriden iş değeri yaratmaktır. Uygun yönetim seviyeleri ile veri dağılımının kurgusu, dağıtımı ve yönetimi için otomasyon teknolojisini kullanarak iş sürecindeki kişileri veri mühendisleri, veri bilimcileri ve veri analistleriyle birlikte çalışmaya teşvik eder. Bu durum, kuruluşun verilerinin olumlu iş sonuçları elde etmek için mümkün olan en esnek ve etkili şekilde kullanılmasını sağlar.

Augmented Data Management

Kendi kendini yapılandıran ve kendi kendini ayarlayabilen süreçlerin yaygın hale getirilmesi için makine öğrenimi ve yapay zekâ sistemlerinin kullanıldığını zaten biliyoruz. Bu süreçler, manuel görevlerin çoğunu otomatikleştiriyor ve veri analisti olunmadan da verilerden kolaylıkla faydalanabilme imkânı sağlıyor. Artırılmış veri yönetimi olarak da dilimize çevirebileceğimiz sistemler, bilgi kalitesi ve entegrasyonu, meta veri yönetimi, ana veri yönetimi ve veri tabanı yönetimine, “kendi kendini düzenleme ve kendi kendini ayarlama” imkânı sağlıyor. Sistemler bu ayarlama için yapay zekâ ve makine öğrenimini kullanıyor. ADM ürünleri, gerçek sorgular, performans verileri ve şemalar dâhil olmak üzere büyük operasyonel veri örneklerini inceleyebiliyor. Mevcut verilere ve kullanım durumlarına yakınlıklarını belirleyebiliyor, diğer otomatik sistemleri yeni verilerin mevcut olduğu ve dâhil edilmek için geçerli bir aday olduğu konusunda uyarıyor.

Peki nedir bunları “trend” yapan?

Mevcut veri kitlesinin ve veri kaynaklarının da artmasıyla veri havuzu katlanarak büyüyor. Verilere yönelik artan talepler ve şirketlerin veri odaklı stratejiler belirlemesi artık daha “akıllı” ve “çevik” sistem ve metodolojiler gerektiriyor.  Büyüyen veri havuzunun daha doğru analizi için de sürekli bir gelişim gerekli. Piyasaların ve rekabet ortamlarının da git gide gelişmesi ve hareketlenmesinin de analiz sistemlerinin gelişiminde etkisi büyük Aslında tüm bu eğilimlerin ortak noktasında görüyoruz ki amaç, veriye erişimi, yönetimi ve analiz sürecini kolaylaştırarak iş süreçlerimizin standart bir parçası haline getirmek. Yani veri analizi artık her iş kolunda her meslek için standart bir operasyon haline geliyor.

Biz Datateam olarak, sürekli gelişen veri analizi teknolojilerine kurumunuzun ayak uydurabilmesi adına alanında tecrübeli ve çevik ekibimizle talebinize uygun çözümler sunuyoruz.  

Kaynaklar:

towardsdatascience

gartner

trustgrid

forbes

oracle

searchdatamanagement

Bir cevap yazın

E-posta hesabınız yayımlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir