Microsoft Build 2024 in der Analyse mit Ralf Richter
22.05.2024 87 min
Video zur Episode
;
Zusammenfassung & Show Notes
(Disclaimer: erstellt mit Chat GPT)
Hallo liebe Community,
Hallo liebe Community,
In dieser Episode von Talk Microsoft 365 begrüßen Michael und Thorsten ihren MVP-Kollegen Ralf Richter. Ralf gibt spannende Einblicke in die neuesten Entwicklungen der Microsoft Build, teilt seine Expertise als Cloud Consultant und begeistert mit seiner Leidenschaft für alles rund um Azure und AI. Außerdem gibt es eine fast vergessene Challenge, das Geständnis eines Exchange-Programmierers und eine hitzige Diskussion über den neuen Team Copilot. Hört rein und lasst euch überraschen! 🎙️💼💡
Highlights:
• 00:00:16 - Willkommen & Vorstellung: Michael und Thorsten begrüßen ihren Gast Ralf Richter. 👋
• 00:02:00 - Challenge-Fail: Diskussion über die verpatzte Ankündigungs-Challenge. 🍺📆
• 00:04:11 - Ralf stellt sich vor: Ralf spricht über seine Arbeit und Projekte. 🛠️☁️
• 00:06:45 - Microsoft Build Highlights: Updates zu Custom LLMs, Multimodal AI und Azure AI Studio. 🚀🤖
• 00:19:00 - Azure AI Studio: Erste Schritte mit einer kostenlosen Azure-Subscription. 💻✨
• 00:36:00 - Copilot in Teams und SharePoint: Diskussion über den neuen Team Copilot. 🤝📑
• 00:54:10 - Microsoft 365 und Windows on ARM: Integration von Copilots in SharePoint und Zukunft von Windows auf ARM. 🖥️🔄
• 01:06:10 - Power-Plattform & Git-Integration: Neuigkeiten und Bedeutung der Git-Integration. 🧩🔗
Fun Facts:
• Thorsten und der Exchange-Mythos: Thorsten sorgt für Lacher mit seinen angeblichen Programmierkenntnissen. 😂👨💻
• Surface Laptop 6: Thorsten schwärmt von seinem neuen Surface Laptop 6. 💻❤️
Links & Ressourcen:
• Ralf Richter auf LinkedIn: Profil von Ralf Richter 🌐
• Microsoft Build Highlights: Book of News 📚
• Azure AI Studio: Azure AI Studio 🔧
• Power-Plattform Git-Integration: Git Integration in Power-Plattform 🛠️
Nächste Episode:
Seid gespannt auf die nächste Episode, in der Thomas Stensitzki zu Gast ist und über die neuesten Entwicklungen im Bereich Exchange spricht. Ein Muss für alle Exchange-Fans und solche, die es werden wollen! 📅📧
Call to Action:
• Community Challenge: Helft uns, die passende Strafe für die verspätete Ankündigung zu finden! Schreibt eure Vorschläge in die Kommentare oder schickt uns eine Nachricht. 📝💬
• Feedback: Wie hat euch die Episode gefallen? Was wollt ihr in Zukunft hören? Lasst es uns wissen! 👍🗣️
Abspann:
Vielen Dank an unseren Gast Ralf Richter für die großartigen Einblicke und an unsere treue Community fürs Zuhören. Bis zur nächsten Episode, bleibt neugierig und wissbegierig! 🤗📢
Diese Episode wurde präsentiert von Michael, Thorsten und ihrem MVP-Kollegen Ralf Richter. Bleibt dran für mehr spannende Einblicke in die Welt von Microsoft 365! 🎧🔍
Bis zum nächsten Mal! 🚀
Michael und Thorsten
-------------------------------------------------
Infos aus der Episode:
Ralf Richter - LinkedIn: Ralf Richter ☁️{/} | LinkedIn
Copilot + PC: Introducing the ultimate Copilot+ PCs – The all-new Surface Pro and Surface Laptop | Microsoft Devices Blog (windows.com)
Open AI on Azure: https://oai.azure.com/
Decode AI: Decode AI (buzzsprout.com)
Whats new in Copilot: What's new in Copilot, Di., 4. Juni 2024, 19:45 | Meetup
Whats new in Teams: Microsoft Teams - Whats new, Mi., 12. Juni 2024, 19:45 | Meetup
Whats new in Copilot: What's new in Copilot, Di., 4. Juni 2024, 19:45 | Meetup
Whats new in Teams: Microsoft Teams - Whats new, Mi., 12. Juni 2024, 19:45 | Meetup
-------------------------------------------------
Link zum Blog findet ihr hier: https://talkm365.net
Auf Twitter unter: @TalkM365
Twitter Michael: @plemich
Twitter Thorsten: @thorpick
Link zum YouTube-Kanal: https://link.talkm365.net/YouTube
Link zum Teams UG - Meetup: https://link.talkm365.net/TeamsUGMeetup
Link zu Thorstens YouTube-Kanal (Quick-Tipps): https://www.youtube.com/c/ThorstenPickhan
-------------------------------------------------
Reference-Links:
Music Intro/Outro: Vacation - AShamaluevMusic.
Music Link: https://soundcloud.com/ashamaluevmusic/vacation
Auf Twitter unter: @TalkM365
Twitter Michael: @plemich
Twitter Thorsten: @thorpick
Link zum YouTube-Kanal: https://link.talkm365.net/YouTube
Link zum Teams UG - Meetup: https://link.talkm365.net/TeamsUGMeetup
Link zu Thorstens YouTube-Kanal (Quick-Tipps): https://www.youtube.com/c/ThorstenPickhan
-------------------------------------------------
Reference-Links:
Music Intro/Outro: Vacation - AShamaluevMusic.
Music Link: https://soundcloud.com/ashamaluevmusic/vacation
Music Background: Inspirational Corporate Ambient - AShamaluevMusic
Music Link: https://www.patreon.com/ashamaluevmusic
-------------------------------------------------
Music Link: https://www.patreon.com/ashamaluevmusic
-------------------------------------------------
Transkript
Hallo und herzlich willkommen
zum Talk Microsoft 365.
Mein Name ist Michael und gemeinsam
habe ich diesmal nicht nur mit
Thorsten, sondern auch mit unserem
MVP-Kollegen, dem Ralf Richter,
über die Microsoft Build gesprochen.
Ralf war so freundlich und
hat uns einen sehr spannenden
Einblick in die verschiedenen
Themen aus der Build gegeben.
Gerade weil er unter anderem auch
Developer ist und sehr viel mit Azure
zu tun hat, waren das sehr, sehr
tolle Einblicke in Themen, in die wir
normalerweise nicht so gut reinkommen.
Darum freut es mich umso mehr, dass
wir euch diese Episode des Talk
Microsoft 365 präsentieren können
mit unserem Spezialgast Ralf Richter.
Und nun geht die Episode los.
Viel Spaß dabei.
Thorsten.
Hallo Michael.
Hallo, liebe Community.
Herzlich willkommen zur aktuellen
Episode des Talk Microsoft 365.
Aktuell heißt, wir sind mitten in der
Microsoft Build Woche und wir haben
also einen leichten Wettbewerb, was
die Livestreaming Sessions angeht.
Es könnte sein, dass der eine oder andere
Microsoft hier auch gerade irgendwas hält.
Umso besser, dass ihr
auch bei uns dabei seid.
Schön, dass wir euch begrüßen dürfen.
Und bevor wir gleich zu dem
Thema Bild kommen und zu unserem
Gast, das hat der Titel, glaube
ich, schon sehr gut gespoilert.
Thorsten, ich glaube, wir haben das erste
Mal so ein beinahe Challenge-Fail gehabt.
Ja, nicht nur beinahe, 100 Prozent, aber
man könnte sagen, es war Feiertag, aber...
Ja, genau.
Ich wollte mich noch
mit Feiertag rausreden.
Okay.
Was waren die Strafe dafür?
Ein Kasten Bier, zwei Kasten Bier, du
lädst die Community ein auf dem nächsten
Event, zahlst alles an Essen und Getränke.
Das können wir gerne machen.
Dann müssen wir uns ein Community-Event
raussuchen, wo es eh freie
Getränke und freie Essen gibt.
das ist ja eine lahme Nummer.
Also pass auf, ich würde jetzt
Müssten wir uns erstmal das erste
Video anschauen und überhaupt gucken,
was denn die Challenge überhaupt war.
War das nicht mit Daten verbunden
und bis Mitte des Jahres
und drüber hinaus oder so?
Und der eine hat das Datum
und der andere nicht.
bis Mitte des Vloggers
und du das andere Datum oder so.
Wir müssen uns die erste Folge
angucken, hätte ich gesagt.
Okay, vielleicht, genau,
Aber sinnvoll ist.
Nicht irgendwie Copilot-Lizenzen
für alle oder so ein Quatsch.
Genau.
Macht auch was Sinnvolles draus.
Ich mag das.
Community, gebt uns doch mal
bitte Input an der Stelle.
Ansonsten, wir werden beim nächsten Mal
die Challenge natürlich wieder aufnehmen.
Wir werden das pünktlich wieder
als Vorankündigung machen.
Diesmal ist tatsächlich, weil
der Montag diesmal ein Dienstag
war, dass etwas verrutscht.
So leicht kann es gehen.
Jetzt haben wir...
Drei Minuten schon mal erklärt,
dass unsere Ankündigungs-Challenge
erwartet wartet, sitzt auf heißem
Kohlen, das ist auch nicht freundlich.
Richtig, richtig.
Wir wollen über die Microsoft
Build sprechen und nachdem wir zwei
ordentliche Pfeifen sind, was das
Thema Developer angeht, Haben wir uns
gedacht, wir holen uns jemanden hinzu,
der sich damit auskennt und damit
sage ich herzliches Hallo zum Ralf.
Hallo Ralf.
Vielen Dank.
Hallo, Servus zusammen aus meinem
Hotelzimmer hier im schönen Zwickau.
Servus Community, Servus
Thorsten und Michael.
Grüß dich.
Wir hatten ja schon ein paar
Mal das gemeinsame Vergnügen,
auch in diesem Format hier.
Nichtsdestotrotz möchte ich dich bitten,
dass du vielleicht ein bisschen was
zu dir sagst, dich kurz vorstellst und
dann starten wir in die Themen rein.
Klar, gerne.
Also, ihr findet mein LinkedIn-Profil
bestimmt in den Shownotes.
Mein Name ist Ralf Richter.
Ich bin seit 25 Jahren im Geschäft
für Softwareentwicklung und habe
mich spezialisiert auf alles, was
Cloud-Softwareentwicklung angeht.
Ich betreue Cloud-Projekte, leite Teams
und Projekte und so als Titel könnt
ihr euch raussuchen, was ihr wollt.
Ich glaube, der aktuellste ist der
Distinguished Cloud Consultant.
Und ja, meine Aufgaben habe ich
da schon ein bisschen umrissen und
bin halt auch Azure MVP seit 2018.
Vier Jahre oder drei Jahre.
Zusammen mit den Kollegen hier
komme ich regelmäßig über den MVP
Summit, zum Beispiel in Seattle, mit
Michael noch den gemeinsamen Podcast.
Außerdem betreibe ich die Azure
Developer Community in München,
also Azure Dev Munich und den
Azure Developer Community Day.
Der dieses Jahr am 3.12.
in München und am 5.12.
in Leipzig für euch stattfindet.
Ein kostenfreies Event mit super
vielen News, alles rund um Azure.
Und auch die Kollegen Michael und
Thorsten haben die Möglichkeit, ihren
Speaker-Slot dort zu bekommen, um
über ihr geliebtes M365 zu sprechen,
Power-Plattform oder was auch immer.
Das heißt, diese Konferenz hat den
Hauptaugenmerk, einen Unterschied
zu machen zwischen IT-Pro.
Und Anwender-respektive
Developer-Community.
Das ist es, was ich so Daily
Business und Community-wise mache.
Cool.
Dankeschön für den Einblick.
Natürlich gibt es im Anschluss
alles in den Shownotes oder wenn
ihr den Podcast genießt, dann gibt
es das direkt in den Shownotes.
Die entsprechenden Links
einmal zusammengestellt.
Genauso wie das, was wir
auch in der nächsten...
Naja, was der Ralf mitgebracht hat an
Agenda-Punkten, würde ich sagen, drei bis
fünf Tagen und darüber sprechen, nämlich
als Referenzpunkt des Book of News.
Da lässt sich relativ schnell einen
Überblick bekommen, was alles an
Informationen irgendwo zusammenkommt
aus den unterschiedlichen Themengebieten
und wir wollen halt ein bisschen
darüber sprechen, allerdings...
Ich möchte noch mal ganz kurz abschweifen.
Habt ihr mitbekommen, dass Microsoft
neue Surface-Devices ebenfalls gestern
oder vorgestern vorgestellt hat?
jetzt haust du aber einen Trigger raus.
Ja.
Ich...
Thorsten.
Also für mich, nur dass ich das mal gesagt
habe, ich finde diese Entwicklung sehr,
sehr spannend, dass Microsoft jetzt auch
sehr stark auf ARM-Prozessoren setzt.
Und Thorsten hält uns gerade ein
Notebook mit einer Windows-Taste hin.
Plus-Taste.
Ach so, mit der Copilot-Taste mit hin.
Sehr gut, Thorsten muss
einfach nicht mehr selber
Surface Laptop 6 und nicht das 7er
und ja, ich habe gestern tierisch mich
geärgert darüber, wie mir denn sowas wohl
durchgehen kann, aber hey, es ist gute...
Ich würde sagen, ausgereifte Hardware,
die ich jetzt in meinem Gerät habe.
Ich habe die Copilot-Taste.
Was willst du denn mehr?
Und ich kann trotzdem 20 Stunden arbeiten.
bitte sehr.
20 Stunden, überarbeite dich nicht.
Am Stück.
Am
so.
würde bedeuten, dass Torsten arbeitet.
Aber wir schweifen zu stark ab.
Wir wollten über die BILD sprechen.
Also wir lassen
bei der BILD doch erstmal damit anfangen,
was ist denn die BILD überhaupt für
alle, die das gar nicht wissen, weil
die BILD ist eine spezielle Konferenz.
Ja, früher hätte der Steve da dreimal
auf der Bühne rumgeschrien, Developer,
Developer, also das ist so der Main-Fokus.
Es geht für ganz viele Themen
hauptsächlich die Developer-Ansicht.
Und du korrigierst mich,
wenn ich falsch bin, oder?
Wie
das ist, ja, hast du recht, ja.
Okay, erste Prüfung schon bestanden.
Also genau, also die BILD ist die
Go-To-Developer-Conference für alle
Software-Entwickler und eine der
größten ihrer Art überhaupt, findet
dieses Jahr wieder in Seattle statt
mit, ich habe geschaut, ich glaube,
sie haben 200.000 Registrations, die
werden nicht alle vor Ort sein, aber
weltweit ist das eine der größten
Developer-Conferences, die es gibt.
Und typischerweise findet auf der BILD...
Ein Highlight-Announcement
nach dem anderen statt.
Und auch in diesem Jahr ist das so,
oder ich will mal anders sagen, in den
letzten zwei Jahren war das so hmmm,
Überschaubar, was da so an spannenden
News rauskam und dieses Jahr hat sich
das so gegenseitig überholt, meiner
Ansicht nach und ich finde es total
schön, was da jetzt rausgekommen ist und
natürlich haben wir einen Schwerpunkt
auf Artificial Intelligence, also
künstliche Intelligenz, dieses Jahr und
das ist ein super spannendes Thema und
da hat es nicht nur für die Developer
News gehabt, sondern eben auch viel
in Richtung Power-Plattform und M365,
aber da wirst du, Michael, bestimmt
noch ein paar mehr Insights haben.
Ein bisschen was zumindest
das, was ich verstanden habe.
Wir versuchen das ja in diesem Format
hier sehr gut zu bewerten, dass wir ein
Gefühl dafür bekommen, ist das jetzt...
Was sinnvoll ist, was nicht sinnvoll ist.
Und da haben wir, glaube ich, auch
eine gewisse Schwierigkeit, dadurch,
dass der Thorsten und ich nicht so
die großen Entwickler sind, ganz
viele Sachen noch angekündigt.
Warte, Thorsten, du kannst mich gleich
korrigieren, dass du in deiner Freizeit
schon tausend Programme geschrieben hast.
Aber jetzt kommt erstmal, ich wollte
noch den Hinweis geben, viele Sachen
sind halt noch nicht mal Richtig da.
Also manche Sachen sind nur angekündigt,
manche Sachen sind in einer Private
Preview da, manche sind schon in
einer Public Preview und andere sind
als soon oder kommen tatsächlich
mit Ankündigung erst Ende des
Jahres oder ganz, ganz viel später.
So Thorsten, jetzt kannst
du mich korrigieren.
Du hast doch mehr
würde ja gerne nochmal letzte
Folge, also vor zwei Wochen
aufgreifen, wo ich mich ja...
Proaktiv für die Community geoutet habe,
weil ich bin nämlich derjenige, der
Exchange programmiert hat, der Skype for
ja, stimmt.
hat und insofern kann ich jetzt eigentlich
die nächste Katze aus dem Sack lassen, ja.
Der Ralf hat ja gerade schon gesagt,
er ist Team Lead, das heißt, er ist
eigentlich mein Vorgesetzter und
er gibt jede Zeile Code, die wir
im Exchange schreiben, also die ich
schreibe, erstmal frei natürlich.
Selbstverständlich, jeder Pull-Request.
Bitte?
Jeden Pull-Request, geht über mich genau.
Jetzt musst du eben noch erklären,
was ein Pull-Request ist.
bitte, das wir.
Also gut, Leute, starten wir
einfach mal ein bisschen durch.
Ich habe mir ein kleines Playbook
gemacht für euch, was ich euch heute
erzählen kann und vor allen Dingen,
also das ist wirklich ein kleines
Feuerwerk und wir fangen einfach
mal bei den Themen an, die super
wichtig sind, weil wir haben jetzt...
Anderthalb, zwei Jahre spielen wir rum mit
all diesen tollen Generative AI Services,
also allen voran natürlich Open AI.
Und was machen wir denn jetzt damit?
Und irgendwie müssen wir damit ja umgehen.
Und dafür hat Microsoft jetzt endlich
Referenz-Architekturen rausgebracht und
hat ein Konzept erstellt, wie können
wir mit den Landing Zones umgehen, also
jeder, der da draußen irgendwas auf eine
Azure Subscription an Services deployen
möchte, baut sich sowas auf, um damit
sicher und ordentlich umgehen zu können.
Außerdem haben sie das
Well-Architected-Framework für AI
rausgehauen und das braucht man
einfach für zuverlässige, sichere,
kosteneffiziente, performante
AI-Applikationen, die ihr da
draußen für euch erstellen könnt.
Das ist mal ein mega Highlight,
endlich ist es soweit.
Das heißt also, man kann darauf
ein bisschen zurückfallen und
bitte versteht das nicht als...
Das ist so, wie man es macht, sondern
adaptiert das bitte auf eure Bedürfnisse
und nehmt das als Rahmen für alles,
was ihr mit dem ganzen Zeug vorhabt.
Und eins der Services, die ganz groß
rauskommt, weil heute hört man ja ganz
oft, oh, Ich muss mir ein Custom LLM
bauen, also Language Large Model, also
Generative AI und dieses Thema Custom
Generative hat Microsoft aufgenommen
und hat versprochen, versprochen, coming
soon, dass es anpassbare Modelle gibt, das
heißt, mit Hilfe von Dokumenten kann man
ein Modell an seine Bedürfnisse anpassen.
Und damit hat man dann ein
Custom-LLM, also sozusagen Azure
Open AI für sich customised.
Was auch ganz wichtig ist, ist,
dass mit der neuen, mit dem Release
von GPT-4.0, multimodale Large
Language Models rausgekommen sind.
Was heißt multimodal?
Das Ding kann sprechen, kann hören,
kann sehen und versteht Texteingaben.
Das ist multimodal.
Und dieses Thema ist jetzt, genau, das
ist ein Well-Architected Framework,
was du hier gerade aufgelegt hast.
Sehr schön.
Also...
So kann das aussehen.
Bei AI Search ist jetzt das Versprechen
gekommen, dass das Multimodale mit
integriert wird und die Vektorisierung,
also was passiert, wenn man einem AI
Dokumente hinschmeißt, ist ja, dass
alles diese Inhalte vektorisiert werden.
Und mit Hilfe der Vektoren kann
man dann arbeiten und darauf
aufbauen und dann auch suchen.
Das geht jetzt zu tief, wenn ich euch
das erklären müsste, aber AI Search kann
jetzt mit Multimodal umgehen und hat
eine integrierte Vektorisierung dafür.
Total cool.
Und wenn euch das jetzt angefixt
hat und ihr Bock habt, das
auszuprobieren, dann nehmt euch
eine kostenlose Azure Subscription.
Ihr habt 200 Dollar, mit denen ihr vier
Wochen lang rumspielen könnt und Und
holt euch, also wenn ihr das aufgesetzt
habt, dann könnt ihr dann mit Azure AI
Studio loslegen und könnt hier anfangen,
damit rumzuspielen, könnt ein Open Azure
AI Service, ein Azure Open AI Service
für euch deployen und könnt anfangen
mit den, Chatbot zu reden oder die
einzelnen Funktionen auszuprobieren.
Was jetzt da neu reingekommen
ist, ist für alle Devs da draußen
super interessant, Code First.
Heißt, wir können mithilfe von CLI oder
dem neuen AI-Toolkit für VS Code loslegen
und uns unsere AI zusammenbauen, so wie
wir das für unsere Anwendung brauchen.
Wir können mithilfe von dem
AI-Toolkit für VS Code die LLMs
Quasi annektieren oder konnektieren
und können die damit auch eintunen.
Wir können das deployen Richtung Microsoft
AI Studio oder andere Plattformen etc.
pp.
Also total fancy Stuff,
der mega viel Spaß macht.
Und Thorsten, Michael, wie weit
habe ich euch jetzt abgehängt?
Nur mit den paar Worten.
Also Architektur habe ich
schon mal irgendwo gehört.
Das ist das, wo Gebäude rumstehen.
Nein, wir machen ja den
anderen Podcast rund um
Code AI
genau, Decode AI.
Und für mich war halt relativ interessant
diese Ankündigung von OpenAI, dass sie
das Chat-GPTO, dann, ich glaube, das
muss man so aussprechen, dass das so mit
rauskam, die Showcases, die sie damit
reingebracht haben und dann jetzt auf
der Bild zu hören, zwei Wochen später,
eine Woche später, ich habe gerade nicht
das richtige Zeitgefühl, dass das von
Microsoft bereits adaptiert ist und sie
das nicht nur schon für die Azure Open
AI Services anbieten, sondern inzwischen
auch schon die API-Schnittstelle anbieten.
Das war für mich etwas, was jetzt
cool war, wo ich dann auch gemerkt
habe, wow, da ist Speed dahinter.
Ja,
das über...
Okay.
Ja.
Genau, also du gehst einfach her und
erstellst eine Subscription für dich.
Also eine Microsoft Azure Subscription
ist die Grundlage für alles, was du
in Azure-Services nutzen möchtest.
Und dann gehst du her und gehst auf
aoi.azure.com und AOI, also Azure Open
AI, abgekürzt mit drei Buchstaben, A-O-I,
Azure.com und bist damit schon in Azure
Open AI Studio und kannst dir anfangen,
da rumzuspielen und kannst direkt,
also du deployst eins dieser vielen
GPT-Models, ja, zum Beispiel GPT-4.0 und
kannst dann damit anfangen zu spielen.
Also du kannst dann...
es,
Das ist super easy.
Es gibt ganz viele tolle Learn-Artikel
dazu, wie man damit starten kann
und wie man das beeinflussen kann.
Da lernt ihr, was ist eine System Message?
Also System Message ist das,
wo ihr dem Large Language Model
mitgebt, wie es sich benehmen soll.
Den zu einem Piraten machen oder
ihr könnt den zu einem unterhöfigen
Diener machen oder einfach nur zu
einer sehr freundlichen Assistenz.
Das könnt ihr mit der System-Message
mitgeben und könnt dort steuern, wann
soll er denn zum Beispiel antworten,
du, das ist mir jetzt gerade zu
blöd, da kann ich jetzt nicht
drauf antworten, um Hallucination
auszuschalten und sowas, aber da geht
es los, genau, das ist sehr einfach.
Okay, und Christoph hat die Frage
der Chefentwickler von Exchange
und SharePoint bin, ja,
Dank.
und die tollsten Geschichten mit
Azure AI und Open AI und bauen.
Jetzt habe ich ja keine
Ahnung vom Programmieren.
Und liefert mir dann Microsoft dann
zumindest auch ein paar Templates,
wo ich mich dran, also A ist es für
mich als Nicht-Programmierer überhaupt
verständlich, also komme ich da leicht
rein, um dann auch am Ende des Tages
was Produktives zu haben und nicht
nur einfach frustriert meinen Surface
6 Laptop in die Ecke zu schmeißen,
weil meine Copilot-Taste immer noch
nicht funktioniert und B kriege ich in
irgendeiner Form eben Templates oder
Beispiele, kann ich mir einfach dann Code
da reinladen und bla bla bla, also ne, ja.
Kann ich mich schnell da reinfinden oder
muss ich erst mal drei Jahre Studium
absolviert haben, um grundsätzlich
zu verstehen, was da passiert?
You
Antwort, ja.
Eine lange Antwort.
Du kannst damit einfach loslegen.
Es war für den Entwickler sehr
frustrierend, weil es tatsächlich
eigentlich nur über die Oberfläche
gegangen ist, alles zu konfigurieren
oder du das über die API alles mit setzen
musstest und jetzt ist es so, dass du
diesen ganzen Krimskrams auch über die
CLI, also die Das Command-Line-Interface
realisieren kannst und das sowohl in dem
Azure-Portal direkt oder auf deiner Azure
CLI auf deiner Maschine oder in Visual
Studio oder mit den Extensions von Visual
Studio da einfach quasi zeilenbasiert,
commandbasiert darauf arbeiten kannst.
Das ging vorher nicht.
Das heißt, die Einstiegshürde
war schon immer eigentlich sehr
gering durch das AI-Studio.
Und es gibt genügend...
Der Einstieg ist sehr einfach.
Der Assistent bringt dich durch.
Es gibt Templates, wo du draufklicken
kannst, wo du einfach mitspielen kannst.
Es gibt einen Playground.
Alles, was du dafür tun musst, ist vorher
das Modell zu selektieren und zu deployen
und auch dafür gibt es einen Assistenten,
der dich da einfach durchführt und du
spielst dann einfach direkt damit ab.
Und wenn du das Ganze dann als Anwendung
deployen möchtest, gibt es da tatsächlich
in diesem Chatbot Playground einen
Button, oben rechts findet ihr den, wo
es dann heißt, als Applikation deployen.
Und schon hast du deine erste
Applikation deployed und kannst
damit richtig cool spielen.
So einfach ist das.
Und deswegen war das auch notwendig,
dass endlich die Architekturvorgaben
kommen, dass sich jemand Gedanken
macht, welches Framework können wir
denn benutzen, um jemandem zu sagen,
wie er eine sichere, intelligente
Anwendung, so sagt man ja, deployen kann.
Genau.
All die Grundlagen sind dafür jetzt gelegt
worden, damit das endlich stattfindet
und die coolen Projekte realisiert
werden können und produktiv gehen können.
Ohne das Studio gesehen zu haben.
Das klingt so ein bisschen nach dem Graph
Explorer, den es für die Graph API gibt.
Kennst du den?
Ich kenne den sehr gut.
Ich möchte ihn damit nicht vergleichen.
Okay.
Also ich habe jetzt
funktioniert, sage ich.
Ich formuliere das mal
Okay, ich habe das jetzt gesehen, so
nach dem Motto, wenn ich jetzt Rechte
habe, dann kann ich halt einfach
Beispiele nutzen, die schon da sind,
einfache Beispiele und kriege dann
zumindest mal ein Gefühl dafür,
wie dieses Thema API funktioniert.
Okay, ich habe verstanden,
dass das offensichtlich nicht
nochmal zurückgerudert, du möchtest
damit spielen, machst dir deine eigene
Subscription, brauchst dir keine
Rechte, du hast dann alle Rechte.
Möchtest du das im Unternehmen
ausprobieren, unterhalte dich mit deiner
IT, lass dir eine Subscription geben
mit den Owner-Berechtigungen auf diese
Subscription und die Berechtigung,
Services zu deployen und stelle
sicher, dass deine IT das nicht über
irgendeine Policy verhindert, dass
irgendwelche AI-Models deployed werden.
Dann kannst du auch das machen und
dann gehst du einfach auf diese
Umgebung und kannst damit rumspielen.
Das ist mega einfach.
Genau.
Ich habe
haben wir jetzt so ein bisschen
so How-to-Start mitgemacht,
finde ich gar nicht so
andere Frage, vielleicht Sorry, wenn
ich dir jetzt da rein torpediere.
Ich habe ein Schlagwort
gelesen in diesem Book of News.
Und zwar, ich habe keine
Ahnung, wie man es ausspricht.
Ich würde es mal einfach
mit Fee3 aussprechen.
ja, mhm.
Dann, wenn ich
bist schon...
Damit überspringst du jetzt den Punkt,
den ich noch dazwischen haben wollte.
Und das ist...
Das ist eigentlich meine Frage, die ich
da mit rein habe, weil da würde ich ganz
gerne ein bisschen Verständnis aufbauen.
Das
Okay, also bei PHY3 reden wir über ein
sogenanntes SLM und im Gegensatz zu
einem LLM ist ein SLM einfach ein Small
Language Models oder Model, genau.
Und was ist der Unterschied?
Ich weiß die Zahlen nicht, ich glaube,
nicht mehr auswendig ganz genau,
ich glaube, wir sind bei über 100
Billion Parameters beim ChatGPT 3.5.
Jetzt haben wir ein Small
Language Model und das hat in sich
ungefähr 4,2 Billion Parameters.
Das heißt, es ist um ein Vielfaches
kleiner als ein Language, als ein LLM.
Und bietet dadurch eine extreme,
naja, Performance-Boost an, ist
aber auch dafür deutlich mehr
zielgerichtet auf den Anwendungsfall.
Ich möchte da gar nicht so viel tiefer
reingehen, Michael, weil ich würde das
lieber mitnehmen in unseren Talk, die Code
AI, und da dann ein bisschen tiefer rein
in dieses quasi für dich neue Feld, SLM.
Und dann darüber sprechen, aber im
Wesentlichen kann man verstehen,
ein Language-Large, also ein
Large-Language-Model hat halt über 100
Billionen Parameter in sich, während
ein SML deutlich, oder ein SLM, deutlich
weniger hat, und wir reden hier im
Fall von PHY3 über 4,2 Billionen
Parameters, die da enthalten sind.
Ja.
Also es ist ein sehr zielgerichtetes
Language-Model, das also einen
bestimmten Bereich abdeckt und damit
effizienter und eben kleiner ist.
Das stellt natürlich auch, also
jedes Language-Model stellt gewisse
Anforderungen an Ressourcen,
sei das Speicherplatz, sei das
Ausführungskapazitäten etc.
pp.
Und damit versucht man dem
entgegenzuwirken und schneidet es dann
jetzt einfach ein bisschen kleiner.
Okay.
Mich hat es tatsächlich
so ein bisschen gejuckt.
Ich dachte mir, wenn wir jetzt gerade
schon so im Thema Grundlagen sind
und du für uns nochmal die Welt
erklärst, dann gehen wir vielleicht
auch nochmal an die Stelle mit ran.
gerne.
Also ich würde es gerne dabei belassen.
Also wir haben damit auch das
meiste gesagt, glaube ich, darüber.
Wer da mehr wissen will, kann erstens
das Book of News lesen, die Session
besuchen oder kommt zu Decode.ai
in den Talk und wir sprechen da
nochmal ein bisschen mehr darüber.
Ihr könnt euch zumindest vorstellen,
dass solche Sachen dann später auch
gerne mal in den Container wandern, also
containerized der Ausführung sind und
wenn das die Größe hat, dass man das
in den Container ausführen kann, dann
kann ich das vielleicht auch auf sowas
wie einem Raspberry Pi, also in der
Baugruppe seines Raspberry Pis ausführen
und so kommen wir dann dahin, dass wir
nicht nur Smart Apps auf irgendwelchen
Großrechnern laufen lassen, sondern
eben auch auf kleinen Devices und Damit,
genau, das soll damit erreicht werden.
Was wir jetzt ausgelassen haben, ist das
Thema M-A-A-S, also Model as a Service.
Und wenn ihr anfangt zu spielen mit dem AI
Studio, Dann werdet ihr nicht umhinkommen,
um über diesen Model-Katalog zu schauen,
denn Microsoft implementiert nicht nur die
OpenAI-Services, sondern es gibt ja auch
ganz viele andere Services da draußen,
die in diesem Katalog mit drin sind, und
das macht das MAS möglich, also Model
as a Service, und da kann man jetzt auch
seine eigenen Services mit dranhängen.
So.
Dann haben wir noch ein ganz wichtiges
Thema, das ist AI Content Safety.
Das ist ein Begriff, wenn ihr
anfangt damit zu spielen, fallt ihr
früher oder später da drüber und
hier hat es jetzt die Möglichkeit,
Custom Categories mit reinzubringen.
Außerdem werden die Prompt
Shields und Groundness Detection
mit eingeführt, ganz neu.
Damit stellt ihr sicher, dass die Ein-
und Ausgaben in eurem In eurem Bot oder in
eurem Chat, dass die safe sind, also dass
die nicht harmvoll sind, dass die nicht
beleidigend sind, dass die nicht gegen
eure Firma gehen, so das hier DHL-Problem.
Was jetzt schon so teilweise aufgepoppt
ist, dass dann irgendwelche großen
Hersteller der Welt den fancy
AI-Bot auf ihrer Website haben und
dann ist irgendein kluger Hacker
beigegangen und hat den Kollegen so
lange in der Session vollgesülzt.
Bis der Bot dann gesagt hat, also zu
diesem Paketboten würde ich nie mein Paket
geben, weil das ist das Schlechteste,
was du überhaupt machen kannst und das
geht dann in der Presse viral und schon
bist du fertig mit der ganzen Nummer,
dass genau sowas eben nicht passiert
Genau, also dass man seine Anwendung
sicher macht und dass sie nicht
gejailbraked werden kann, so nennt man
das, wenn man den so lange bearbeitet,
bis er anfängt, das Unternehmen zu
beleidigen, für das er tätig ist, ja,
also genau das ist genau damit gemeint.
Ja, genau.
Wir haben jetzt ja schon
super viel AI-Themen gehabt.
Es gibt ein Thema, das finde ich auch
noch ganz wichtig, und zwar wer da
draußen in der .NET-Welt Software
entwickelt, der hat damit zu tun, dass
er irgendwelche Services in seiner
Software anbindet und damit entsteht
ein gewisser Aufwand für das Setup.
Und den kann man jetzt mit .NET Aspire
hervorragend abstrahieren und kann
quasi die Konfiguration und Integration
in seine Anwendung von solchen
Services mit .NET Aspire erledigen.
So eine ähnliche Form von
Dapper, allerdings im Code.
Und lohnt sich für alle, die
es hören, da mal hinzuschauen.
Also wenn du jetzt zum Beispiel eine
Anwendung schreibst und du möchtest
gerne einen Storage-Block anbinden
oder eine Cosmos-DB, dann hast du
das SDK zu importieren, dann musst du
die Konfiguration erstellen dafür, du
musst das ganze Zeug dann in deiner
Anwendung verwalten, bla bla bla.
Ja.
Und .NET Aspire erlaubt dir das, quasi
per Konfiguration zu machen, statt
dass du das in deinem Code machst.
Und das ist eine deutliche Verbesserung,
weil jeder Change an diesem Drop Storage
oder an der Cosmos DB erfordert dann
wieder das Anfassen der Software.
Und wenn ich das aber über Konfiguration
mache, packe ich mir eine Konfiguration
an und kann das damit ins Ops-Team geben.
Deutlich
verstehe sogar ich.
Umgebung dann für dich.
Ja, wenn ihr das versteht und da
keine Fragen habt, bin ich happy.
Wir haben dann ganz neu AKS Automatic
und das ist quasi also Azure Kubernetes
Service ist eine Die PaaS-Lösung, die
einen Kubernetes anbietet, gibt es
jetzt schon ein paar Jahre, brauchen
wir nicht großartig drüber reden.
Neu ist dieser Zusatz Automatic.
Und was macht es Automatic?
Es ist ein Kubernetes, das für
euch aufgesetzt wird, nach Best
Practices von Microsoft, die einige
der größten Kubernetes-Cluster der
Welt betreiben, wo zum Beispiel Teams
draufläuft, wo zum Beispiel Xbox
Play, Games-Services drauflaufen
und ist gemacht, um AI-Applikationen
in die Produktionswelt zu heben.
Das heißt, um quasi Smart-Apps
oder Intelligent-Apps in
Produktion zu betreiben.
Also vorkonfigurierter
Azure Kubernetes-Service.
Ziemlich geiler Kram.
Für alle, die sich Gedanken
machen darüber und eine sehr große
Applikation haben, ist es der GoTo.
Was haben wir noch Neues?
Cosmos DB ist ja auch schon ein
alter Kandidat in dieser ganzen
Geschichte, insbesondere bei NoSQL.
Was jetzt neu dazu kommt ist, und das
brauchen wir unbedingt, wenn wir zum
Beispiel Azure Search benutzen wollen,
also AI Search, dann haben wir vorhin
schon gehört, wir haben sowas wie Vektoren
und diese Vektoren müssen irgendwo
abgelegt werden und im besten Fall
kann ich hervorragend darüber suchen.
Und das kommt jetzt nach Azure Cosmos
DB mit der NoSQL-Implementierung und ist
powered by DiskN und bietet eine super low
latency Vector Search an und ist damit der
erste First Cloud Scale Datenbankdienst,
der solche Sachen im Petto hat.
Ziemlich cooler Stuff an der Stelle.
Hast du gerade gesagt, es
wird jetzt ein Wetterdienst an
die Kosmos-DB angeschlossen?
Habe ich das gerade richtig verstanden?
First Cloud Scale hat
nichts mit Wetter zu tun.
Okay, okay.
Irgendwo war Wetter, glaube ich.
Vektor hat er
Vektor.
ja, Vektor,
ergibt gleich einen ganz anderen Sinn.
Also wenn wir unsere
Dokumente irgendwie...
Vektorisiert haben mit AI-Search
oder AI-Index, dann können wir es
jetzt in Cosmos DB NoSQL ablegen
mit der Disk-N-Implementierung und
können dann über diese Vektoren
super easy und sehr schnell suchen.
Cosmos DB hat noch ein
Eis, ne?
Aber der Semantic-Index für
Copilot arbeitet ja nicht
auch mit Vektoren, Michael?
War das nicht so?
Natürlich.
Sie.
Ich hab was verstanden, mega!
Und ich hab aufgepasst in diesen
ganzen Microsoft-Schulungen.
Geil!
stark.
Glückwunsch, Thorsten.
Okay.
So, was haben wir denn noch Cooles?
Ich versorge mal mal ganz kurz
hier, das tut mir leid, das
ist jetzt in, ist halt live,
Ach, du musst machen, weil du
ja, mir ist gerade aufgefallen,
dass das Mobile sich beklagt und
das Laden unterbrochen hat, weil
es ihm warm geworden ist, aber
das können wir so nicht lassen.
ein
Also, was ist noch Cooles gekommen?
Cosmos DB gibt es ja seit einem
Jahr ungefähr, auch als eine
Serverless-Instanz, das heißt, es wird
darunter quasi keine Pixel verwendet.
Wird nicht auf einer fixen
VM oder sowas deployed.
Und das kann man jetzt übertragen
auf eine Provisioned-Kapazität.
Das heißt also, von Einer Cosmos
DB Serverless kann ich jetzt
rübergehen und die transizieren
in eine normale Cosmos DB Instanz.
Das ist ziemlich cool, weil man fängt
Serverless an und lernt dann in der
Anwendung, oha, jetzt habe ich aber doch
ein bisschen mehr Bedarf und ein bisschen
mehr Performance Bedarf, dann kann ich
das umziehen und damit tun sich für euch
auch auf ein paar neue Sparmöglichkeiten,
weil man kann dann zum Beispiel mit
Reservations Dafür sorgen, dass die
Cosmos DB nicht ganz so teuer wird.
Ja, was haben wir noch Tolles, wenn
wir schon bei den Datenbanken sind?
Azure Database beinhaltet jetzt
auch PostgreSQL-Extension für AI
und ist General Available, also GA.
Außerdem haben wir einen Cosmos
Pilot, Copilot, also, oh Gott, das war
jetzt super gemixt, Entschuldigung,
also den Microsoft Copilot findet
ihr jetzt auch in Azure SQL.
Und was macht er da?
Er hilft den Entwicklern, komplizierte
Queries zu erstellen, indem sie die
Möglichkeit haben, auf natürliche Sprache
zurückzugreifen und Copilot zu sagen, was
für Daten wie zusammengestellt werden und
draus putzelt dann ein SQL-Query für euch,
mit dem ihr das dann erledigen könnt, was
ihr da vorher an Eingabe reingehauen habt.
Ja, ähm...
Ich mich ja immer so frage, bei diesem
ganzen Copilot-Kram, auch wenn ich jetzt
vielleicht die Session sprenge, ich weiß
es nicht, ist das ein Anwendungsfall?
Ist das echt ein Anwendungsfall?
mit der M365-Welt zu sprechen, es gab
jetzt die Tage irgendwie im News-Center
die Ankündigung, dass wir demnächst ein
Plug-in haben, damit wir unsere Shifts,
also die Schichtenverwaltung in Teams,
mit Copilot abfragen können, damit ich
dann im Copilot sagen kann, sag mir
mal, welche Schichten ich nächste Woche
habe, wo ich mir denke, naja, ernst?
Also ich meine, ich kann ja auch einfach
in Teams in die Shifts-App gehen und
sehe, was ich halt für Dinger habe und
wenn ich mir jetzt vorstelle, ich bin ein
SQL-Dude irgendwie und habe da eben seit
20 Jahren, baue ich mir meine SQL-Query
so rund runter, wird dem jetzt helfen,
dass er demnächst über Copilot sagen
kann, gibt man mir die ersten tausend
Ergebnisse aus der Adressdatenbank wieder?
Aber das ist ja genau
der Punkt, der Moment.
Die Diskussion hatte ich nämlich gerade
erst diese Woche mit jemandem, der absolut
arbeitet in Excel seit Jahrzehnten.
Weiß ich nicht, 90% der Arbeitszeit
passiert in Excel, baut dort wildeste
Sachen, hat halt auch gesagt, also den
Copilot für Excel brauche ich halt nicht.
Und das passt auch.
Aber für den normalen
Otto-Normal-Fuzzi, so wie mich,
der Otto-Normal-Fuzzi kommt doch
nicht auf die Idee zu sagen, ich
gehe jetzt mal an eine SQL-Datenbank
und lasse mir die ersten 1000...
Da wüsst ihr doch nicht
mal, was er reinschreiben
aber wenn du nur alle fünf Jahre mal
in seine Datenbank reinschaust und
dann eine Abfrage bauen möchtest, dann
sehe ich dafür schon die Möglichkeit.
Ich würde sowas nicht separat
lizenzieren, aber wenn das mit
einem anderen Paket mit dazukommt...
Dann ist das sinnvoll.
Wie gesagt, dieser Excel-Spezialist,
der baut die wildesten Sachen in Excel
und wenn ich dort reingehe und sage,
ich habe das neulich bei dem gesehen,
ich weiß gerade mal, wie das heißt,
dann kann ich den Copiloten halt
fragen und der baut mir sowas dann.
Das ist eben genau diese Brücke, dass ich
professioneller arbeiten kann, wenn ich
mich nicht in der Tiefe damit auskenne.
Es ist ja immer noch der Copilot.
Er soll ja unterstützen.
Genau, also es gibt ja nicht
nur große Unternehmen, die
die Möglichkeit haben, solche
Hardcore-Spezialisten zu unterhalten.
Und der Trend ist ja eher
dahingehend, dass man mehr und mehr
generalistisch unterwegs ist und
die Spezialisierung vielleicht nicht
mehr überall so erforderlich ist.
Wichtig ist, dass man natürlich
ein gewisses Verständnis davon
hat, ansonsten werden auch die
Queries hier scheiße werden.
Shit
tatsächlich ist es das, dass ich jetzt
dann, also was passiert, wenn einer
jetzt, keine Ahnung, der hat den Server
drei Jahre lang nicht angepasst oder
angefasst und hat nicht reingeschaut
und jetzt braucht er auf einmal eine
neue Table mit neuen Daten drin, dann
fragt er, wen fragt er denn dann?
Also er googelt es und jetzt kann
er das Copilot erzählen und Copilot
kann basierend auf seinem Dataset
sagen, zack, das ist die Antwort und
die Zeitersparnis ist ja immens, weil
sonst schnipselt er sich das vielleicht
zusammen aus irgendwelchen Beiträgen,
aus irgendwelchen Foren und hat, dealt
damit rum und irgendwann läuft es dann,
aber hat halt den ganzen Tag verbrannt.
Und jetzt kann er das abkürzen, indem er
Copilot fragt, was nicht bedeutet, dass
Copilot immer die richtige Antwort gibt.
Da muss man ein bisschen
validieren, was da rauskommt.
Und das, also, genau, also berechtigte
Frage, Thorsten, für den Profi kann
es hilfreich sein, also kann seine,
kann quasi Tasks erledigen, die
für ihn langweilig sind und für den
Unerfahrenen oder für den Generalisten,
der da nur alle Nase lang reinschaut
und sich ein bisschen Unterstützung
wünscht, perfekt dafür geeignet.
Ja, so, dann kommen wir auf
ein Riesenthema, MS Fabric.
Fabric, das neue Ding, für alle, die ein
bisschen was mit Daten zu tun haben, die
irgendwas ETL-mäßiges machen möchten, die
Datenanalysen machen wollen, anreichern
und so weiter und so weiter und so weiter.
Von Anfang an mit Copilot
supported, total geil.
Jetzt gibt es das für Realtime-Daten.
Also, Sie haben ein Realtime-Hub
gebaut für die Daten-Ingest.
Sie haben Prozesse dafür, also
du hast die Möglichkeit, auf
den Daten dann zu arbeiten, sie
anzureichern, die Daten zu routen.
Du kannst deswegen jetzt mit
Event-Streams out of the box arbeiten.
Es gibt das Event-House, das
die Möglichkeit bietet, auch im
Realtime-Dashboard zu arbeiten.
Wir haben jetzt den Data Activator mit
drin, der als Trigger funktioniert,
um Daten zu prozessieren.
Und natürlich kannst du das alles
mit AI-Powered Insights dann
dahinter legen und hast halt den
Microsoft Copilot integriert.
Und kannst dir damit dann auch
jetzt KQL-Querys generieren lassen.
Also analog zum Azure SQL kannst du
jetzt auch in Fabric dir auf deinen
Daten KQL-Querys erstellen lassen
und hast damit einen super Vorteil
zeitlich gesehen und natürlich auch...
Erkenntnismäßig die Möglichkeit, wenn
du die richtigen Fragen stellst mit
AI, was kommen denn da für Daten an,
wie kann man die gut beurteilen, etc.
Also beispielsweise ich will eine
Schadenserkennung machen oder sowas,
dann kann ich das genau mit sowas machen.
Ein ganz anderes Thema, was jetzt
rausgekommen ist, also ihr habt es
wahrscheinlich schon öfter gehört,
aber es gibt das API-Management in
Azure, also dahinter kann ich meine
Applikationsinterfaces verstecken
und kann den Zugriff steuern und
wie das alles kommuniziert wird etc.
pp.
und sorge damit dafür, dass ich
eine sichere Barriere habe zwischen
meiner Anwendung und der Außenwelt.
Neu dazu kommt jetzt das Azure API
Center und was verbirgt sich dahinter?
Es ist quasi die große Klammer für
alle API-Managements, um zum Beispiel
innerhalb eines Unternehmens die
Möglichkeit zu haben, seine APIs zentral
anzubieten und zu verwalten und damit
die Gelegenheit zu nutzen, dass Was
zum Beispiel für Power-Plattformen
irgendwelche APIs aus dem Unternehmen,
die in Azure liegen, verwendet, um da
irgendwelche Daten daraus abzugreifen.
Was ein bemerkenswerter Punkt ist.
Ein anderer Zuwachs ist, dass wir mit
Azure App Services jetzt die Möglichkeit
bekommen, ein Sidecar-Pattern zu benutzen
und wer Sidecar-Pattern noch nicht kennt,
es gibt das Distributed Application
Framework oder Runtime, das heißt Dapper
im Kurz, also wer auf dapper.io geht
und dort nach Sidecar-Pattern sucht, der
findet eine Plattform, Prima Erklärung
davon, was ist ein Sidecar-Pattern
und damit habe ich die Möglichkeit als
Entwickler quasi ein kleines Sidecar
zu bauen, das bestimmte Dinge für mich
erledigt oder weg abstrahiert und ich
mich so in meiner Applikation auf meine
Business-Logik konzentrieren kann.
Genau das macht Dapper und wer mit
Dapper nicht glücklich wird, kann
Dapper entweder erweitern oder er
baut sich sein eigenes Sidecar.
Ich behaupte, dass Mindestens
80 Prozent aller Fälle mit
Doppel schon erledigt sind.
Das könnt ihr jetzt auch auf
Azure App Services benutzen.
Total cool.
Fragen?
Sind alle leise?
Haben wir eigentlich ein Chat?
Kommen da, also ich glaube zwar
nicht, dass wir, haben wir Zuseher?
Haben wir Zuseher?
Ja, wir haben Zuhörer und Zuseher, immer.
Immer.
Microsoft Azure Container Apps, einer
meiner Lieblings-Services, das ist
quasi die Next-Level-Abstraktion eines
Kubernetes-Services, der wirklich
alles für dich weg abstrahiert, du hast
keinen Ärger mit Ingress, Egress, also
ankommenden und verlassenen Traffic.
Du kannst hier sofort Nutzen haben
von Dapper, weil es Built-in ist, etc.
pp.
Was ist jetzt neu dazugekommen?
Es wird in Zukunft in Azure Container
Apps die Dynamic Session geben.
Was ist das?
Du erweiterst on-demand in einer
Sandbox deine Azure Container App
und packst da zum Beispiel AI drauf
mit LLM oder was auch immer oder eine
Customized SaaS-Lösung und kannst das
in einer Sandbox sicher erweitern.
Ohne den Code zu verändern, mit
ausführen auf Azure Container Apps.
Ziemlich coole Sache.
Außerdem bekommen die Azure Container
Apps jetzt das .NET Aspire Dashboard.
Das ist der Service, den ich euch
vorhin genannt habe, wo man per
Konfiguration andere Services an
seine Applikation anbinden kann.
Genau.
Lass mich noch ganz kurz, also ich
bin schon fast am Ende mit den coolen
News und danach können wir vielleicht
auf die Themen schwenken, Thorsten und
Michael, die ihr noch im Petto hattet.
Aber es gibt noch vier Sachen, die ich
erzählen möchte oder vielleicht fünf.
Jedenfalls der letzte Punkt wird,
glaube ich, lustig für alle.
Er ist so ein bisschen bottomless.
Azure Functions.
Azure Functions bekommt
eine Extension ähm...
Um Microsoft Azure Open AI Services direkt
zu infusen in die Function, also eine
direkte Anbindung, total cool, was so
ungefähr dem Sidecar-Pattern entspricht,
also per Konfiguration Die Nutzung von
Azure Open AI Services zu benutzen.
Außerdem hat man jetzt die Möglichkeit,
Azure Functions als Container-App auf
Azure Container-Apps reinzulassen.
Das bietet den Vorteil, dass ich
zum Beispiel nicht die Warm-up-Phase
habe, dass ich lange ausführende
Functions haben kann, etc.
pp.
Außerdem findet man jetzt
auch Dapper auf Functions.
Total cool.
Ein anderer schöner Serverless-Service
ist die Static Web App.
Die kann ich nur allen empfehlen, die
irgendwas mit SPAs zu tun haben, etc.
pp.
Du hast auf der einen Seite eine
Frontend-Applikation, auf der anderen
Seite bekommst du entweder schon
Embedded Azure Functions oder du kannst
Custom Deployed Functions benutzen.
Hier kommt jetzt neu dazu, dass es
endlich eine Network Isolation gibt.
Das heißt, ich kann meine Functions
noch ein Level sicherer machen,
also meine SWR ein Stück sicherer
machen, indem ich sie isolieren kann.
Ich bekomme die Data Residency dazu.
Das ist wichtig, um mit Daten umzugehen,
die in meiner Applikation sind.
Und außerdem kommt jetzt
das Always-On-Feature.
Azure Static Web Apps sind
in Ihrem Startup-Verhalten
ziemlich, ziemlich schnell.
Sie sind ja Static Web Apps, also
da kommt statischer HTML-Code hin.
Sie haben aber eine Spin-Up-Time.
Und wenn einem das zu lange dauert,
kann man das jetzt mit Always On für die
Functions, also hinten dran das, was uns
Content liefert und die ganze Static Web
App dynamisch macht, kann ich ein Always
On für die Managed Functions aktivieren.
Das ist nagelneu, finde ich auch
ziemlich cool, denn sonst war man
gezwungen, da seine Custom Functions
hinten dran zu binden, damit man
genau dieses Feature nutzen kann.
Jetzt gehen wir schon ein bisschen
Richtung Low-Code und Logic-Apps sind
Low-Code-Applikationen, du kannst also mit
Hilfe von ein bisschen Konfiguration und
clicky-bunty-Boxen hin und her schubsen,
kannst du mit Hilfe eines Triggers eine
bestimmte Logik starten und die macht
Dinge, die kann Daten empfangen, Daten
verarbeiten, Daten ablegen, kann Daten
anreichern, was auch immer du damit
dir ausdenkst, Und hier gibt es jetzt
dann endlich die Möglichkeit, Custom
Code in deine Logic App mit einzubauen.
Das heißt, irgendjemand entwickelt
quasi ein Kästelchen, das du
bunt durch die Gegend schubsen
kannst in deiner Logic App.
Und das geht jetzt mit .NET Custom
Code Support für Logic Apps.
Wir haben...
Als letztes noch unser Lieblingstool
als Entwickler, das ist das
Visual Studio und hier wird
Copilot jetzt Hardcore integriert.
Also jede Visual Studio Edition
hat jetzt einen Copilot.
Und zuletzt, lieber Thorsten,
Microsoft Copilot in Azure.
Eine bottomless Story an der Stelle.
Ich habe es auch immer
gesagt, es wird kommen.
Und ich habe gesagt, das ist Quatsch.
Das braucht kein Mensch.
Hier für solche Experten wie ich,
die dann so ein Kubernetes Cluster
aufbauen wollen, keine Ahnung haben
und dann fragen sie den Copiloten, ey
Copilot, machen wir mal einen Kubernetes
Cluster, aber ich habe keine Ahnung
Ja, bitte, Sarko Benidis.
Kubernetes, Entschuldigung.
Dankeschön.
Genau, das ist auch genau das letzte
Thema, das ich für euch mitgebracht habe.
Was bedeuten die Microsoft
Capabilities, also was bedeutet der
Copilot für euch in Microsoft Azure?
Also ich finde es sinnvoll für
genau diese Generalisten, die
hin und wieder mal irgendwas tun
oder mit Microsoft Azure starten.
Du kannst zum Beispiel mit dem Microsoft
Copilot in Azure deine Applikation
troubleshooten und kannst den Copilot
fragen, warum steht jetzt meine
Applikation still, was ist passiert
oder wie kann ich diesen Fehler beheben.
Außerdem kannst du deine SQL-Databases
mit deiner natürlichen Sprache
verwalten lassen über den Copilot.
Copilot, kannst Queries bauen
und so weiter und so weiter,
Catalog Views erstellen und so.
Also, relativ interessant, weil, was
ihr vielleicht nicht wisst, aber eine
Tatsache ist, wir haben an die 400
Services in Microsoft Azure und alle diese
Services zu kennen, ist hier unmöglich.
Also, gilt auch für Typen wie mich.
Das klappt.
Vielen
Meistens reicht es.
Reicht es dann jetzt aber, wenn man
zum Beispiel mit Copilot um den Service
weiß und sich entsprechend darum mit
dem Copilot unterhalten kann, um solche
Services aufzusetzen, um sie, keine
Ahnung, was auch immer damit zu tun.
Copilot hilft jetzt
auch in Microsoft Azure.
Und ja, Thorsten, ich habe falsch gelegen.
Es gibt einen sinnvollen Use Case
für Microsoft Copilot in Azure.
Du bist Gott, Vater, auch du.
Alf?
Durftest du das schon ausprobieren?
Darfst du überhaupt drüber
die Antwort verschweigen, Jan-Est.
Ich ziehe den Joke ab.
Das war ziemlich viel Information.
Ich würde euch empfehlen, an
der einen oder anderen Stelle
einfach nochmal hinzuhören.
Wenn ihr euch dafür interessiert,
das Book of News ist public, das
ist kein Secret, aus dem wir hier
irgendetwas lesen oder euch vorstellen.
Es wird sicher in den
Shownotes mit drin sein.
Klickt einfach auf die entsprechenden
Themen und sucht euch das
Themengebiet aus, das ich erwähnt
habe, was euch interessiert hat.
Das findet ihr 100% in dem Book of News.
Und da könnt ihr dann entweder
einen Blogartikel dazu finden,
die Session dazu finden, die
hoffentlich dann aufgezeichnet wurde.
Ihr könnt euch noch nachträglich
sogar für die BILD anmelden.
Falls noch nicht geschehen,
macht es einfach jetzt.
Und damit habt ihr die Möglichkeit,
dann auch quasi mit einer Tüte
Popcorn euch die einzelnen Sessions
gewählt, rauszusuchen und anzuschauen.
Das lohnt sich bei einer
BILD auf jeden Fall.
Vor allen Dingen für die
Coming-Soon-Topics, um dann eine Idee
zu bekommen, lohnt es sich für mich zu
warten oder möchte ich das anders lösen.
Oder war auch für die
Sachen, die GA gegangen sind.
Also tiptop und vielen Dank erstmal,
dass ich hier sein durfte und
das jetzt euch erzählen durfte.
Das war ein kleines, für mich
war das ein kleines Feuerwerk.
Ich hoffe für euch da draußen auch.
Und es waren tiptop Themen dabei,
die absolut aktuell sind, die auch in
meinem Alltag gerade sehr aktuell sind.
Deswegen fand ich das relativ cool.
ich total geil finde, Ralf, ist einfach
das Thema, dass ich nie mit dieser
Leidenschaft und Feuer dieses Book of
News hätte vortragen können und es ist
einfach toll, wie du das vorstellst.
Vorträgs, wie viel Leidenschaft drin ist.
Ralf on fire, hätte ich fast gesagt.
Insofern liebe ich unsere schon fast
traditionell jährliche stattfindende
Session zu Book of News und Bild, weil
für mich steht, also ich brauche da
nicht teilnehmen, also es ist halt Wie
ich schon im Vorgespräch gesagt habe, es
ist 95% Ravis nicht, weil ich nicht in
der Materie drin bin, mich nicht damit
beschäftige insofern finde ich toll und
sage vielen, vielen Dank schon mal an
der Stelle, dass du dir wieder die Zeit
genommen hast, das für uns aufzuarbeiten
und mit uns gemeinsam zu teilen hier.
Auch wenn wir noch nicht
fertig sind mit der Session,
Ja,
genau, genau.
Nee, wir sind noch nicht fertig.
dankende Worte an dich, Ralf.
Danke fürs Teilhaben lassen hier
an der Community, also mega.
Ja, danke, dass ich hier sein darf.
Das ist auch das Schöne, wenn wir
jemanden haben, der eine Ahnung hat
von dem, was da tatsächlich drin
steht, anstatt einfach nur, ah ja,
ich habe ein Schlagwort gelesen wie
Cosmos DB und das hilft uns dann so ein
hört sich gut an.
Das habe ich noch nie
gelesen, Cosmos Debbie.
Das scheint neue Technologie zu sein.
diese Technologie gibt
es schon etwas länger.
Ja, nein, also soweit reicht mein Wissen,
glaube ich, dann schon, mein persönliches
Wissen, aber das ist halt so, ich habe
davon schon mal gehört und weiß das
ansonsten nicht weiter einzusortieren,
deswegen sehr gut, dass wir das bekommen.
By the way, ich mache jetzt auch gleich
mal kurz Werbung für die nächste Sendung,
dort haben wir nämlich auch wieder
einen Gast, der uns hilft, einiges
einzusortieren, wir werden nämlich
zusammen mit dem Thomas Stensitzki
über das Thema Exchange reden, also...
meine Arbeit,
Das, was der Thorsten
da zusammenprogrammiert
bis zum Ende des Jahres.
Das wird jetzt auch so eine
Bottomless Action, I would
Wir müssen aber noch mal eindeutig
über deine Fähigkeiten reden, weil ganz
ehrlich, du hast geschwankt zwischen, du
programmierst große, wichtige Projekte und
du hast keine Ahnung von Programmieren.
Also im Nachgang müssen
wir noch mal klären, welche
Story jetzt dann der Wahrheit
Thomas wird in der nächsten Sendung
erklären, was alles im Exchange nicht
funktioniert und dann weißt du, wo
halt meine Programmierkenntnisse
Ja, okay.
Ich weiß nicht, ob das der Fokus
ist, aber bevor wir jetzt hier
Ende machen, ich möchte einfach
mal ein bisschen einsortieren.
Ralf hat jetzt ganz, ganz viel
von dem Punkt vorgestellt,
der hier unter Punkt 1 läuft
Vielen
Book of News.
also...
zwei, drei, vier, fünf und sechs und wir
werden nicht alle heute machen, aber ich
möchte so ein paar Highlights tatsächlich
noch rauspicken, bevor wir hier den Talk
zu machen, weil gerade die, die jetzt
nicht so stark in der Developer-Ecke
stehen, werden trotzdem etwas finden,
was richtig, richtig groß ist.
Oh, da bin ich aber jetzt
gespannt, was richtig
gespannt, also ich hoffe, du referenzierst
nicht auf Edge, der jetzt verhindern
kann, dass Screenshots gemacht werden.
Also das ist doch ein
richtig guter Use Case.
Nein, ich habe es vorhin schon mal
angesprochen, das Windows on Arm.
Next Generation of Windows on Arm.
Aber das ist tatsächlich...
Also da muss irgendjemand was entwickeln,
damit das auf den ARM-Prozessoren läuft.
Das ist für mich tatsächlich
nicht das große Highlight.
Ich gehe mal ein Stück weit nach oben
und gehe mal in die Microsoft 365-Welt.
Da steht nämlich auf einmal, ich kann
in SharePoint Copiloten erstellen.
Und ich dachte mir erst mal, klar.
Ja.
Ein typischer Spruch von Christoph,
ihr habt ja Lack gesoffen.
Ich habe ein Dokumentenverwaltungssystem,
um das mal ganz platt
und ketzerisch zu sagen.
Und darin kann ich auf
einmal Copiloten erstellen.
Natürlich.
Und dann habe ich das angeguckt, was
die sich darunter vorstellen und ja.
Ja, ja, doch, doch, geht schon.
Der Gedanke ist nämlich, dass
man dann speziell auf die Sachen,
die in einer Sharepoint-Zeit
sind, den Copiloten anwendet.
Dass er nicht mehr overall geht über alle
Sharepoints, auf die ich Rechte habe,
sondern man geht dann zum Beispiel auf
einen sehr gut gefüllten, keine Ahnung,
Sharepoint-Abteilungslaufwerk oder so
und holt nur da die Informationen raus.
Also ein Abteilungs-Sharepoint.
Ich habe Laufwerk gesagt.
Scheiße, jetzt weiß jeder,
wie ich zu Sharepoint stehe.
Ja, okay, also Abteilungs-Sharepoint
als Möglichkeit.
Und dann gibt es was, da haben wir
schon relativ lange drüber gesprochen,
Thorsten, und zwar das Thema Team-Copilot.
Ich habe einige Posts heute schon
gesehen dazu im Social Media.
Es gab so ein paar Aussagen.
Und ja, Thorsten, da würde ich
ein paar Minütchen vielleicht mal
drauf verwenden, darüber zu reden.
Was ist denn dein Verständnis
für den Team Copilot?
Anschnallen fast nur sieht also ich habe
keine ahnung ich habe es nicht verstanden
weil es gibt ja schon einen Copiloten
also für mich ist das erste was schon mal
wieder auffällt es gibt einen Copiloten in
teams warum jetzt noch ein team Copilot wo
ist das essen also neues produkt irgendwie
schon mehr verwirrung ja Team Copilot.
So, dann, was ich aus den Social
Medias rausgenommen habe, aus dem
Video, was Microsoft auch dazu
produziert hat, natürlich wieder schön
marketingkonform, müssen wir dann
erstmal abwarten, was wir überhaupt
bekommen werden an Funktionalität,
was sie so vorgestellt haben.
Macht das für mich persönlich, meine
persönliche Meinung, keine MVP-Meinung,
keine Insights, keine NDAs, nur das, was
ich öffentlich gesehen habe, macht das
für mich so ein bisschen den Eindruck,
dass vielleicht ist es dem einen oder
anderen aufgefallen, es gibt momentan
Es gibt sehr viele AI-Bots, die sich in
irgendwelche Meetings mit reinnehmen,
für mich automatisch Notizen machen,
dies und das und dann gibt es hinterher
eine schöne Zusammenfassung und ich
glaube, das hat so manches Unternehmen
ein wenig unterschätzt, wie viele
Mitarbeiter auf einmal AI-Bots in
ihre Meetings mit reinbauen und haben
dann im Nachgang festgestellt, wie
schwierig es ist, diese AI-Bots auch
wieder aus der Umgebung rauszuholen.
Zu bekommen, die Rechte wieder zu
entfernen und allem, was dazugehört, ich
unter Umständen irgendwie einen Data-Leak
habe, weil der AI-Bot dann vielleicht
irgendwie aus China oder sonst wo
herkommt, keine Ahnung, und ich glaube,
genau da versuche ich gerade Microsoft
anzusetzen, dass sie eben nicht mehr auf
Third-Party zurückgreifen müssen, sondern
wir das ganz über Microsoft bekommen und
uns dieser neue Team-Member, der virtuell
ist, ein Bot, dann eben Notizen erstellt
und so, aber so richtig verstanden
habe ich es ehrlich gesagt nicht, weil
Ist das diese Copilot-Ausprägung,
wo ich sagen kann, lieber Copilot,
ich kann an diesem Meeting nicht
teilnehmen, aber ich habe Interesse an
dem Meeting und ich bekomme Nachrichten.
Nach dem Meeting eine Zusammenfassung
aus dem, was in dem Meeting passiert
ist, als E-Mail zugeschickt.
Ist das dieser Team-Copilot?
Ist das das, was da drin steckt?
Puh, das ist eine schwierige Frage.
Ich halte diese Beschreibung, die
du gerade gemacht hast, immer noch
für so einen Marketing-Gag, den
Microsoft vor anderthalb Jahren mal auf
irgendeiner Veranstaltung gegeben hat.
ganz.
Also du hast ja jetzt demnächst diese
Follow-Funktion im Outlook, dass du sagen
kannst, Ihnen folgen, obwohl ich nicht
teilnehmen kann und dann ist Passiert
genau das, was der Ralf gerade sagte, dann
bekomme ich hinterher eine Chat-Nachricht.
Das ist die Zusammenfassung,
bla, bla, bla.
Das ist dann aber, glaube ich, eher
die Kombination aus Copilot und
Intelligent Meeting Recap, was wir
eben im Premium haben, damit wir diese
Inhalte dann bekommen, glaube ich.
mhm.
Aber ich kann
so lese ist, also Meeting
Facilitator, dass der sich der
Agenda annimmt und Notes macht.
Das bedeutet vielleicht, dass er
vielleicht ein bisschen auf Timekeeping
aus ist und eben Notizen macht.
Genau.
beim Group Collaborator habe ich
jetzt noch nicht so ganz genau
verstanden, vielleicht auch eher
sowas wie Zusammenfassen von
Chats und diese vielleicht zur
Verfügung stellen und vielleicht die
Nachverfolgung von irgendwelchen Tasks
ja, das
auch Delegierung
mein
davon.
ähm,
ist das, was hier steht, ne?
Okay, der Group Collaborator ist aus
meiner Sicht, wenn ich das so lese,
derjenige, der versucht, über den Chat,
beziehungsweise aus unterschiedlichen
Quellen die Tasks zusammenzutragen.
Das heißt, du gibst denen den
Auftrag, dass zum Beispiel
aus Gruppenunterhaltungen, aus
Teammeetings, also aus Meetings aus
einer bestimmten Gruppe heraus, die
Aufgaben zusammengetragen werden und
dann hast du eben nicht nur diesen,
ich habe ein Meeting und da habe ich
meine Tasks drin, sondern ich habe auch
noch ein anderes Meeting, was die Tasks
hat und die werden zusammengebracht.
Das ist das, was ich darunter verstehe
und du hast das in Kombination mit dem
Projektmanager auch nochmal als richtige
Kombination, dass du die Tasks dann auch
besser nachverfolgen kannst, also wenn es
dann heißt, da gibt es ein Deadline zu,
dass auch das mit berücksichtigt wird.
ist mein Verständnis.
sind die weiterführenden Links eine
Wiederholung von den Informationen
auf dem Book of News leider.
Ja, leider.
Das...
wenn ich hier sowas lese wie Copilot
will ensure every project runs smoothly
by creating and assigning tasks.
Ja, Entschuldigung, Microsoft, ihr
bekommt das aktuell noch nicht als
mit Teams Premium hin, dass ich Tasks
aus einem Meeting generiert bekomme.
Macht vielleicht erstmal die Baustelle
fertig, bevor ihr jetzt mit einem
Project Manager um die Ecke kommt.
Wo ist da jemand
Das ist es halt.
also es hängt auch damit zusammen, dass
ich mich gerade ein bisschen auf Teams
Premium vorbereite irgendwie, weil
morgen so ein kleiner Event ansteht und
an vielen anderen Community-Projekten
das Teams Premium Thema ist und für
mich sind das einfach so, Also, das, was
ich halt gerade schon eingangs sagte,
Microsoft verspricht immer halt viel in
ihren Marketing-Slides und macht immer
viel und du kannst dies und du kannst das
und wenn du dann wirklich mal anguckst,
Teams Premium gibt es jetzt seit über
anderthalb Jahren und es ist immer noch
nicht in der Lage, mir aus einem, obwohl
ich Intelligent Meeting habe, obwohl ich
dafür Geld zahle, Da kann es mir zwar
textmäßig die Aufgaben rausgeben, aber ich
habe keine Möglichkeit daraus, einen Task
in To-Do, Outlook, Planner zu generieren.
Ich muss den Text rauskopieren und
selbst das funktioniert nicht, sondern
ich muss dann meine AI-Nodes plus
AI-generierten Tasks quasi in ein Notepad
rüberschieben, um daraus dann wiederum
einzelne Aufgaben bauen zu können.
Hat doch nichts mit
Effizienz zu tun, sorry.
Da zahle ich auch keine 8 Euro im Monat
für so ein scheiß Add-on, für ein Add-on,
was dann nur 90% der Arbeit macht.
mir gerade das Marketing-Video
an zu diesem Team-Copilot.
Was ich hier sehe, ist, dass das
quasi kein Automatismus ist, sondern
dass das, Bei den Tasks schon so ist,
dass man den einen oder anderen Sign
bekommt von Copilot, aber dass viel
davon auf Aufforderung passieren muss.
Also ich fordere auf, Copilot hier in
Aktion zu treten und auch das, was du
gesagt hast, dass irgendwie getrackt
werden soll, dass irgendwelche Tasks
bearbeitet werden oder abgeleitet
werden und dann in den Planner kommen
oder so, das muss man ihm auch sagen,
beziehungsweise man muss ihm sagen,
wir möchten dich in diesem Meeting
gerne als Assistenz dabei haben.
Er ist so der stille Zuhörer, glaube ich.
Der Typ, der in letzten
nur, wenn du das willst, ja, also...
ist schon ein bisschen so
spannend auf jeden Fall.
Kann ja unter Umständen in nicht so
gut strukturierten Unternehmen das
ein oder andere an Progress bringen.
Kann aber auch in nicht so
gut strukturierten Unternehmen
vielleicht zu mehr Chaos führen.
Was ich zumindest entnommen habe und
ich glaube, da sind zumindest alle
M365 Kunden, die den Copilot lizenziert
haben, ist, dass es keine neue Lizenz
sein wird, sondern dass es eben für
alle Kunden, die den M365 Copilot
lizenziert haben, zur Verfügung stehen
wird, wenn er dann irgendwann da ist.
Also, Leute, ihr müsst zumindest schon
mal nicht tief an die Tasche greifen, um
euren Team-Copilot, nicht Teams-Copilot,
den Team-Copilot nutzen zu können.
Wuhu!
Konfetti bitte, Michael.
Ja, so macht man das ja.
Ja, weiß ich nicht, du
bist der Apple-Mann.
Guck mal,
ja,
Ja,
guck mal, der Christoph hat
es direkt falsch geschrieben.
Unfassbar, Christoph.
Christoph wollte nochmal
auf Loop eingreifen.
Das ignorieren wir alles mal.
Loop ist doch eine komische
Baustelle von Produkt.
Da kann ja Christoph bestimmt das
nächste Mal was dazu erzählen.
Das machen wir dann vielleicht im...
haben wir denn Christoph im Talk
Im Sommer vielleicht nochmal.
Mal gucken.
Er weiß noch nichts von seinem Glück,
aber er schaut uns ja gerade zu.
Von daher passt das ganz gut.
Aber er meint, ich hoffe oder ich
glaube, dass er den Team Copilot
meint, der dann im Endeffekt auch
die Meeting Notes mit benutzt.
Und da sind wir ja quasi wieder bei Loop.
Vielleicht haben wir ja bis zu dem
Gespräch mit Christoph dann im Sommer
nochmal ein bisschen mehr Informationen.
Ich möchte vielleicht
in Salzburg.
Wir könnten da ja vielleicht mal
irgendwie eine coole Action planen.
Ja, können wir, wir brauchen,
ach Gott, jetzt müssen wir
wieder einen Raum organisieren.
einen Team-Copilot, der uns Tasks
generiert und Notizen macht,
bitte, der hier mitschreibt.
Ja, also jetzt brauchen wir hier keinen.
Hier bräuchte man einfach
nur einen anderen Bot.
By the way, es gibt ganz
viele von diesen Bots.
Das ist auch total...
Die kannst du als
Repräsentant ausschicken.
Das finde ich so strange.
Okay, ähm...
Gut, wir haben noch einen Punkt, den
ich nicht verschweigen möchte, denn der
betrifft unseren sicheren Hafen und der
dreht sich um Teams und natürlich GoPilot.
Die Sachen gibt es witzigerweise
schon auf der Roadmap.
Ja.
Das ist schön, weil ich war so ein
bisschen erschreckt, dass meine Annahme
von wegen, ich starte einfach das
Transcript in einem Meeting, nicht
automatisch dazu geführt hat, dass
ich ein Meeting-Recap bekommen habe.
Das gibt es dann jetzt.
Das ist gut, finde ich.
Und
Die Begeisterung schwappt über, ist
total ansteckend, total super hier.
Sehr ist.
Also, ich finde ja noch so
ein paar Themen, also wenn wir
Richtung Power-Plattformen gehen,
finde ich ja tatsächlich so ein
paar Sachen auch total cool.
Ich habe jetzt gelesen, dass
in Power-Plattformen, war das
in Power-Plattformen oder war
das noch in Logic Apps, dass es
eine native Git-Anbindung gibt,
was ich super gut finde, um zum
Beispiel den Code auszuprobieren.
Oder das, was man erzeugt hat mit
Clicky Bunty, dann auch sicher und
reproduzierbar wieder weggespeichert hat.
Also so eine Sachen finde ich mega, mega,
mega cool und sind dringend notwendig
auch, weil ja gerade Power Apps dazu
einladen, eine Schatten-IT zu erzeugen.
Wenn man das richtig angeht, dann ist
dieses, das hört sich, das ist für viele
ITs ist es tatsächlich ein Problem.
Wenn man das allerdings richtig angeht,
dann ist das eine Entlastung für die
meisten ITs, weil nicht alle Dienste
oder nicht alles, was die damit machen
wollen, ist gleich harmvoll und böse.
Man muss ihnen, also den
Fachabteilungen, einfach nur dabei
helfen, wie man das richtig anstellt,
ohne dass das in ein Chaos landet.
Also Beispiel aufgemacht, also irgendeiner
findet die Power Apps cool und er findet
irgendwas Tolles für seine Abteilung.
Und dieser Mitarbeiter verlässt das
Unternehmen, weil er in Rente geht und
auf einmal pflegt das Ding keiner mehr
und man kommt auch nicht mehr dran,
weil der Mitarbeiter nicht mehr da ist.
Und also eine Scherze.
Damit wird dann natürlich Power
Apps dann zu einem Problem.
Dafür gibt es aber echt
super tolle Lösungen.
Also wer sich dafür interessiert, es
gibt da auch in unserer MVP Community
ganz tolle Leute, die sich damit
auskennen, wie zum Beispiel Luise Frese.
Die Female Power Apps macht und
umsetzt, nur um ein Beispiel zu nennen,
da sind noch ganz viele andere und
ich entschuldige mich jetzt schon
mal bei allen, die ich nicht genannt
habe, in diesem Atemzug, aber da gibt
es ganz viele Konzepte, die einfach
da die IT unterstützen, wie man das
Thema richtig angeht, also zum einen
tolle Sachen zu entwickeln und zum
anderen sie so zu entwickeln, dass
sie nachhaltig und verwaltbar und
wartbar sind, denn das ist nämlich
die große Challenge an diesen Themen.
Aber finde ich, finde ich
total cool, solche Sachen.
Ich möchte jetzt nochmal
zurückkommen zu dem sicheren Hafen.
Also auch wenn Thorsten das nicht feiert.
Ich
möchte
Doch,
über...
das.
ich bin nur der innerliche Feierer.
bist der innerliche Feierer.
in der letzten Reihe sitzt und still
und heimlich sein Kätzchen anzündet
und sagt Happy Birthday und dann pff,
Ja, ja, ja, okay.
Vielleicht nimmst du ja
jetzt das Folgende mit.
pass auf, halt dich fest.
Es war Teil der Keynote, wenn
ich es richtig verstanden habe.
Ich habe sie nicht geguckt, aber
ich habe das im Nachgang gehört.
Ich habe gehört, Satya war da.
Ja, ja, das macht er öfter.
Hier, Custom Emojis and Reactions.
So, jetzt aber Konfetti, oder?
Das ist echt bottomless, hätte ich gesagt.
Im Guten oder im Schlichten?
Ja.
Mega.
Ich bin's gut.
Custom Emojis und Reactions.
Ich hatte mal einen Kunden, der wollte
Skype for Business nicht einführen.
Der kam von Lotus Notes,
weil er dort keine, hatte ich
dir schon mal erzählt, er,
schlechteste der Welt, Lotus Notes.
Weil man bei Skype for Business keine
GIFs hochladen konnte, keine eigenen
und deswegen, was aber in Lotus Notes
funktioniert und deswegen wollte er
kein Skype for Business einführen,
weil ich in nachrichten kann,
keine Custom GIFs einführen können.
So und genau in die Richtung
geht das, glaube ich.
Also eine kleine Frage
Kontakt von mir habe und dann tolle
Sachen machen kann als Reaction.
Ja, also es war nicht Lotus Notes, sondern
Sametime, das an Lotus Notes gehangen hat
und man konnte in Sametime tatsächlich
Custom Emoticons einfügen, genau, das war
der Punkt hier an der Stelle, richtig,
hast du schlechteste Software der Welt,
schade, dass du ihn deswegen nicht bewegen
konntest, das zu migrieren, aber...
Druck war dann größer, er hat dann
schon Scarver Business implementiert,
ging halt nicht anders, aber
damit können wir es lösen jetzt.
Das war auch eines der größten
Probleme bei einem anderen Kunden
damals noch zu Lyng-Zeiten.
Das war auch das, wo die
meisten, witzigerweise die ITler,
hauptsächlich geweint haben drüber.
Es ist total witzig, das von euch
zu hören, dass sowas ein Problem
darstellt und dass das so wichtig
ist, dass das in die Kino da fließt.
Ja, Entschuldigung.
Aber guck mal, es ist Update
will be in Preview next month.
Ja, hör mal.
Das heißt, wir kriegen
das schon nächsten Monat.
Stark.
es da schon einen Learn-Artikel,
wo beschrieben ist, was ich
denn für Bilder benutze?
Dann gehe ich schon mal
in Produktion jetzt.
Dann stelle ich das Arbeiten ein und
produziere schon mal Custom-Emojis.
war schon wieder dieses Du
teilen wir spontan 25.000 Kollegen
ein, die es auf jeden Fall genauso
hart feiern werden wie du, Michael.
Die haben jetzt schon ihre Bilddatenbank
mit 8,5 Terabyte, sind die schon
am Konvertieren, damit wir das in
Custom-Emojis hochladen können.
Ja.
Und wir kriegen mit diesem
Slash-Command dann auch mehr Funktionen
endlich in diese Schreiberbox.
Ich weiß nicht, wie man das richtig sagt.
Wie heißt denn das?
Also da, wo ich hingebe?
Ne, oben in die, da geht es doch um
Nee, nee, nee, eben nicht in die
Searchbar, sondern direkt unten in das Ja.
Endlich kriege ich mal eine Reaktion.
Meine Güte.
ich flippe aus.
das ist vielleicht ein
bisschen drüber aber
das, was man jetzt im neuen, ich
weiß gar nicht, ob es eine Funktion,
ich glaube, es ist eine reine neue
Outlook-Funktionalität, da kann ich
ja auch so ein Slash reinbauen, dann
schickt er mir quasi Dateien vor, die
ich anhängen möchte oder aus dem OneDrive
Beispiel genauer
Copilot, wenn ich dort auch Slash mache,
kann ich auch sagen, wollen wir darauf
also so komisch ich ja den Copiloten
finde, ich bin ja da doch irgendwie
kritisch und so weiter und so fort,
habe ich gestern ein Beispiel gesehen,
das hat mich schon vom Stuhl gehauen.
Das war nur eine Tabelle mit, also es
war auch so ein Microsoft Learning Kurs
auch, war nur eine Tabelle voll mit
Zahlen, Quarter Earnings, Blablabla mit
Überschriften und dann waren Zahlen über
Zahlen über Zahlen über Zahlen und die
Aufgabe war, mach folgenden Prompt in
Word, schreibe mir dazu irgendwie einen
Financial Review Blablabla Feedback
Session und der hat echt drei Seiten
produziert, Fließtext, drei Seiten
Fließtext mit den gesamten Zahlen
drin, das fand ich schon beeindruckend.
Also es ist, wahrscheinlich lachen
sich jetzt unsere Zuschauer tot und
denken, was ist mit dem Pickern los?
Das ist so eine Grundfunktion,
die Copilot irgendwie, aber ich
habe das erste Mal wirklich ein
Action gesehen, hatte mal einen
Anwendungsfall dafür und war begeistert.
Ich fand es gut.
Und wenn ihr...
Copilot entdeckt.
Und wenn ihr noch ein paar mehr
von diesen Highlights miterleben
wollt, dann schaut gerne auf
Meetup nach der Teams User Group.
Dort findet am Anfang des nächsten
Monats wieder das What's New statt.
Da werden wir uns ganz ausführlich
auch um die Sachen kümmern.
Das ist auch mitreferenziert.
Es gibt dazu schon den neuen
What's New Artikel in Teams.
Wie man aus einem Word-Dokument mit vielen
Zahlen einen Flea-Sticks produzieren kann.
immer noch dieses Slash und
so.
eigene Emojis bauen.
Okay, Emojis vor jedem
du von Basic-Funktionen des Copilots
so begeistert bist, das habe ich
jetzt einfach mal hingenommen.
so.
Ei, ei, ei.
reibst, so wie es dir
gedisst hier in der Sendung.
Nö, ich fühle nicht gedissert.
Nee, du nicht.
Ich?
Das ging ganz klar an den
Exchange-Programmierer.
Ich werde jetzt erstmal den Code
öffnen und sagen, wenn dann ein
Platner um die Ecke kommt, Outlook
alle drei Sekunden abstürzen lassen.
Egal, ob auf oder auf
Gott sei Dank keine Mails mehr.
ich einbauen.
Nur, dass du Bescheid weißt.
Das wird ein großes Ding.
freue mich auf den Termin mit
dem Thomas in zwei Wochen.
muss ich mal gucken,
was er von deinen Ideen
habe
Also, als mein
Punkt rausgefunden oder rausgesucht
aus den vielen News, die so
rausgehauen wurden und das sind
die AI-Flows in Power Automate und
die finde ich total faszinierend.
Ihr habt
gerne
gesagt, wie kann ich denn selber mit
Copilot und dem ganzen Zeug, also
zum einen natürlich in Copilot Studio
kann man super tolle Copilots für sich
selbst bauen, aber mit AI-Flows kannst
du genau sowas machen, wie du gerade
eben mit Beschrieben hast, wo du quasi
Outcome-Based Automation machen kannst
mit generativer künstlicher Intelligenz
und kannst einen Flow bauen, der autonom
losrennt und sich das baut und du
beschreibst es einfach nur, was du machen
willst, das finde ich total geil und
der stellt dann einen Flow für dich in
den Power Apps, das finde ich super.
Also sowas ähnliches,
wie du beschrieben hast
diese nicht auch schon, dass ich
dem Copilot sagen konnte, im Power
Automate machen wir folgenden Flow
und dann hat der einen Flow gebaut?
Oder ich verstehe es gerade nicht.
du kannst jetzt mit AI Flows,
kannst du quasi beschreiben, wie
der Flow aussehen soll und der
baut dir den Power Automate Flow.
Findest
gedacht, das könnte er schon.
Ja, ja, wir
Soweit ich das verstanden habe, baust
du halt nicht über deine Texteingabe
einen Flow, sondern du kriegst halt
was zurück über Was auch generative
AI nutzt innerhalb deines Flows.
Das ist, glaube ich, so
der große Unterschied.
Ich möchte vielleicht noch so ganz,
ganz am Schluss, wirklich ganz am
Schluss, nur noch mal ganz schnell
über die Punkte hinwegrushen, die mir
noch als Highlights aus dem Microsoft
365-Welt noch aufgefallen sind, aber
ich die nicht richtig bewerten kann.
Das muss ich dazu mit einräumen.
Das ist zum Beispiel das Thema, dass
Mesh eine AI-Erweiterungsfähigkeit
bekommt, also dass man die Möglichkeit
hat, auch AI für Mesh mit einzubinden.
wird es eine Sandra total
freuen, Sandra Kiel.
Mich persönlich, ich kann das
entsprechend nicht bewerten.
Genauso wenig wie das
Fluid-Framework in der 2.0-Version.
Ich weiß, dass das an vielen Stellen
ein ganz, ganz wichtiger Punkt ist,
unter anderem für Loop, aber auch
für Integration von Informationen.
Also
mehr
zu deinem ersten Punkt ganz kurz was
gesagt, also gerade mit dem Multimodal
LLM von Azure OpenAI, also mit dem
das Sprechen, Sehen, Hören kann, Stell
dir das in einer 3D-Welt vor und was
du mit dem Input anstellen kannst.
Also stell dir vor, dass der AI-Service
in der Lage ist, zu sehen, was der
Benutzer sieht und darauf zu reagieren.
Und das ist natürlich
eine sensationelle News.
Das weiß ich
kannst jetzt, ja, du kannst mithilfe
von Mesh ja eine 3D-Welt erstellen und
kannst jetzt mit dem Multimodal-Service
von OpenAI darauf reagieren.
Also du kannst den Input, den du siehst
quasi, das ja ein Stream ist, kannst
den an OpenAI geben oder per irgendeine
User-Interaktion dafür sorgen, dass
das nach OpenAI geht und kannst es
analysieren lassen oder vielleicht
sogar verändern, also verändern.
Mithilfe von, was weiß ich, stell dir
vor, du hast ein Mesh aufgebaut, das für
Architekten irgendein Haus pflanzt auf
irgendeine Stelle an einer grünen Fläche
und der Kunde möchte jetzt irgendwas
verändern und der könnte dann zum
Beispiel sagen zu diesem Service, der
da gebaut wurde, verschiebe den Eingang
um zwei Meter nach links und verschiebe.
Mit Hilfe von OpenAI ist dieses System
dann auf einmal in der Lage zu sagen,
erstens zu detekten, wo ist denn diese
Tür, zweitens die Sprache wahrzunehmen
von dem User und dann drittens mit
einer Aktion dafür zu sorgen, dass diese
Tür weiter zwei Meter nach links geht.
Also das ist so ein Anwendungsfall,
den ich mir super gut vorstellen
kann, als kleines Beispiel, wie
das in Mesh denn dann ankommt.
Also das ist ja total
mega cool, sensationell.
Sorry.
Okay,
Leidenschaft, ich find's gut.
Ja, ja, ja.
gebe ich dir nochmal zum Schluss
diese Bühne für SharePoint Embedded.
Wenn du das möchtest.
Ansonsten, das Thema wurde ja Ende
letzten Jahres schon vorgestellt.
Das heißt, ich habe einen Layer, bei
dem verschiedene Applikationen in
dem gleichen Storage-Dataleg quasi
die Applikationsinformationen ablegen
beziehungsweise die Applikationsdaten
dann auch mithalten, die aber wiederum,
obwohl sie im gleichen Lake sind, noch
rechtlich getrennt sind, also verbunden.
Andere Rechte darauf sind und
exklusiv für diese eine Applikation
dann zur Verfügung steht.
Die ist jetzt dann GA und ich
glaube, dass da auch ganz, ganz
viele die Möglichkeit haben, aus der
Entwicklersicht tatsächlich abgekapselte
Apps zu schreiben und zu bauen.
Gleichzeitig aber das Thema
Datenspeicherort und Anpassung
Größen und solche Geschichten
sehr gut zusammenzubauen.
Das ist nochmal eine ganz gute Schicht
aus meiner Sicht dazwischen für Office
Applikationen, also eher Richtung
SharePoint, deswegen auch SharePoint
Embedded, dass du da die Möglichkeit
hast, das viel mit ihnen zu integrieren.
Loop ist zum Beispiel eine App, die
darauf, also die so geschrieben ist.
Das ist schon eine App und wie gesagt,
seit Ende letzten Jahres schon geöffnet
von von Microsoft und über die API
ansprechbar, ausschließlich über API
ansprechbar, jetzt dann auch als GA.
Vielen
Das waren so meine Highlights, die
ich tatsächlich noch mitgenommen habe.
Okay, super cool.
Für die Windows-Devs da draußen würde
ich noch mal zwei, drei Sachen sagen
wollen, weil Thorsten hat ja seine
coole Copilot-Taste vorhin gezeigt,
die er jetzt auf seinem Surface
6 hat, leider nicht 7, haben wir
auch schon genug drüber gesprochen.
merke schon, wie du gediszt wirst
auf jeden Fall hier, Thorsten.
Ich merke das.
Ich brauche auch ein Control Panel
und ich möchte ganz gerne die Funktion
haben, dass ich Gäste muten kann
und dass ich auf Wunsch auch Gäste
einfach rauswerfen kann der Session.
Gerade eben war er noch dankbar, dass ich
da bin und schon ist er ein undankbarer
schnell ändert sich Blatt, wendet sich
Du musst dich nicht wundern,
dass er getestet hat.
Ehrlich, Thorsten.
Aber solche Gemeinheiten kann ich
nicht einfach so stehen lassen.
Also, es gibt die Windows Copilot
Runtime und die Windows Copilot Library
jetzt zur Verfügung, das heißt, wenn
ihr Windows-Entwickler seid und ihr
entwickelt Anwendungen für Microsoft
Windows, dann habt ihr damit jetzt
eine super Möglichkeit, eure App
auch smart zu machen, ohne dass ihr
mit dem AI-Studio loslegt, wenn ihr
euch ein Copilot dazu bauen wollt.
Das finde ich total cool.
Lustig finde ich auch die Verwandtschaft
von Windows Semantic Index, also
ihr hattet vorhin auch schon mal
Semantic Index gehabt, es gibt einen
Abstraktionslayer, mit dem man AI-Apps
entwickelt und der heißt Semantic
Kernel und ich glaube Semantic Kernel
ist die Basis für Semantic Index, das
macht zumindest Sinn aus meiner Sicht.
Developer-Sicht.
Genau, die beiden Dinge sind mir noch
aufgefallen, als ich da vorhin drüber
geflogen bin, die sind vielleicht gar
nicht so schlecht, Copilot Library
gibt euch die Möglichkeit, OCA und
solche Sachen zu bauen, Translations
mit zu embedden und stuff, also
total cool und mit dem Semantic Index
Index Was ich hier gerade gelesen
habe, ist, das geht Richtung Copilot
Plus, also auch nicht so schlecht
zu benutzen für native Windows-Apps.
So, nochmal die Dev-Kurve gekriegt.
Geil.
Ich war froh, dass wir
da raus waren, Mensch.
Das
Dass
dumm, da muss ich mich nicht einladen.
Also sehr, sehr cool, wie Thorsten
es schon relativ am Anfang gesagt
hat, sehr cool, jemanden auch
dabei zu haben, der tatsächlich
Anfang, das war quasi schon im
letzten Drittel mein Freund.
Der das noch mal ganz gut bewerten kann.
Dankeschön, das hast du am Anfang gesagt,
Herr Kollege, in der Mitte und am Ende.
Du konntest quasi auch
nichts anderes sagen.
Von daher...
Der war jetzt ja hart.
Oh, ja, ja, ja.
Ich bin das ja gewohnt.
Ich bin ja alle zwei Wochen
mit dem Kollegen zusammen.
Sehr gut, sehr gut.
Habt ihr noch ein dringendes Thema,
was ihr hier gerne loswerden wollt?
Dann
Außer die Leute, die sich für AI
interessieren, dass die sich wirklich
die Code-AI anhören sollten, habe
ich erstmal kein Thema, Michael.
Hashtag schamlose Werbung.
Sehr gut, genau so soll es sein.
Ich sage erstmal ganz, ganz herzlichen
Dank, Ralf, für diese Einsortierung,
für diesen Überblick an den Funktionen.
Mir hast du wieder einiges erklärt,
was ich in meinem Alltag nie brauche,
aber jetzt verstehe, was an Highlights
damit dazukommt, warum das vielleicht
einen unterschiedlichen Aspekt für
jemanden, der dort tiefer drin ist.
Geben kann.
Vielen, vielen Dank.
Dafür Funktion des Herzchens
schicken irgendwie.
Bevor die Reactions be-restreamen.
Danke, Ralf.
Danke euch für die Einladung.
Sehr gerne, immer wieder gerne bei
uns und damit würde ich sagen, wir
verabschieden uns für diese Runde.
Ihr habt das nächste Mal, wie gesagt, das
Vergnügen, einen Exchange-Spezialisten
mit dabei zu haben, der sich hoffentlich
mal direkt den Thorsten vornimmt
und dem erklärt, was der alles
an Blödsinn zusammenprogrammiert.
Wir freuen uns auf den
Thomas beim nächsten Mal.
Und bis dahin teilt es gerne alle mit
allen, die ihr kennt, die Erfahrung
haben wollen mit Entwicklung, die
vielleicht einen Einstieg haben wollen mit
Entwicklung im AI über das entsprechende
Studio und natürlich mit allen, die schon
immer mal verstehen wollten, was auf so
einer Bild tatsächlich ein Highlight ist.
Ach ja, und natürlich mit Hund,
Katze, Maus, Oma, Opa, Onkel, Tante.
Und damit bis zum nächsten Mal.
Ciao.
Ciao.