Welcome to Loot.co.za!
Sign in / Register |Wishlists & Gift Vouchers |Help | Advanced search
|
Your cart is empty |
|||
Books > Computing & IT > Computer software packages > Other software packages > Enterprise software
Successfully execute a strategic roadmap of digital transformation and modernize your enterprise with a proven API-led agile implementation approach by unlocking the full range of features in IBM API Connect Version 10 Key Features Explore techniques to design and deliver valuable customer-centric APIs using API Connect Manage your APIs with improved security and optimal performance across many channels Uncover hidden capabilities that help improve business agility and management within your API ecosystem Book DescriptionIBM API Connect enables organizations to drive digital innovation using its scalable and robust API management capabilities across multi-cloud and hybrid environments. With API Connect's security, flexibility, and high performance, you'll be able to meet the needs of your enterprise and clients by extending your API footprint. This book provides a complete roadmap to create, manage, govern, and publish your APIs. You'll start by learning about API Connect components, such as API managers, developer portals, gateways, and analytics subsystems, as well as the management capabilities provided by CLI commands. You'll then develop APIs using OpenAPI and discover how you can enhance them with logic policies. The book shows you how to modernize SOAP and FHIR REST services as secure APIs with authentication, OAuth2/OpenID, and JWT, and demonstrates how API Connect provides safeguards for GraphQL APIs as well as published APIs that are easy to discover and well documented. As you advance, the book guides you in generating unit tests that supplement DevOps pipelines using Git and Jenkins for improved agility, and concludes with best practices for implementing API governance and customizing API Connect components. By the end of this book, you'll have learned how to transform your business by speeding up the time-to-market of your products and increase the ROI for your enterprise. What you will learn Use API Connect to create, manage, and publish customer-centric, API-led solutions Run CLI commands to manage API configuration and deployments Create REST, SOAP, and GraphQL APIs securely using OpenAPI Support OAuth and JWT security methods using policies Create custom policies to supplement security Apply built-in policies to transform payloads Use CLIs and unit testing hooks within DevOps pipelines Find out how to customize Analytics dashboards and Portal User Interface Who this book is forThis book is for developers and architects who want to achieve digital transformation using IBM API Connect and successfully execute the strategic roadmap of enterprise modernization while effectively managing their API ecosystem. A solid understanding of what RESTful services and APIs can do and where to implement API security is necessary to get started. Experience in application development and basic knowledge of microservices, container orchestration, and cloud environments will help you to get the most out of this book.
Ebenso wie seine Vorganger liefert auch das 8. GI-Fachgesprach ein getreues Spiegelbild der Probleme, die sich in den jeweiligen Zeitraumen in den Rechenzentren ergeben haben. Zum Zeitpunkt des 8. Fachgesprachs bestimmen Themenkreise wie dezentrale Datenverarbeitung, ihre Beherrschbarkeit und ihre Grenzen, aber auch der Ausblick auf neue Techniken und Entwicklungstendenzen, Sicherheitsaspekte und Hochgeschwindigkeitsnetze die Diskussion. Die zunehmende Betrachtung der Rechenzentren unter Kosten-Nutzen-Gesichtspunkten fuhrte zum Themenkreis "Kapazitatsplanung und -management." Traditionsgemass wird auch dieses Fachgesprach von einer Hochschule, der Heinrich-Heine-Universitat Dusseldorf, ausgerichtet. Der Trend der Hochschulen - und damit auch ihrer Rechenzentren - geht hin zum Wissenstransfer und Technologieaustausch mit Unternehmen der Wirtschaft und Industrie. Berucksichtigt wird dies im Themenkreis "Kooperation Wirtschaft/Hochschule," in dem uber die Erfahrungen in der Zusammenarbeit zwischen Wirtschaft und Wissenschaft bei der Entwicklung komplexer Softwaresysteme berichtet wird."
Build, deploy, and manage containers with the next-generation engine and tools Key Features Discover key differences between Docker and Podman Build brand new container images with Buildah, the Podman companion Learn how to manage and integrate containers securely in your existing infrastructure Book DescriptionAs containers have become the new de facto standard for packaging applications and their dependencies, understanding how to implement, build, and manage them is now an essential skill for developers, system administrators, and SRE/operations teams. Podman and its companion tools Buildah and Skopeo make a great toolset to boost the development, execution, and management of containerized applications. Starting with the basic concepts of containerization and its underlying technology, this book will help you get your first container up and running with Podman. You'll explore the complete toolkit and go over the development of new containers, their lifecycle management, troubleshooting, and security aspects. Together with Podman, the book illustrates Buildah and Skopeo to complete the tools ecosystem and cover the complete workflow for building, releasing, and managing optimized container images. Podman for DevOps provides a comprehensive view of the full-stack container technology and its relationship with the operating system foundations, along with crucial topics such as networking, monitoring, and integration with systemd, docker-compose, and Kubernetes. By the end of this DevOps book, you'll have developed the skills needed to build and package your applications inside containers as well as to deploy, manage, and integrate them with system services. What you will learn Understand Podman's daemonless approach as a container engine Run, manage, and secure containers with Podman Discover the strategies, concepts, and command-line options for using Buildah to build containers from scratch Manage OCI images with Skopeo Troubleshoot runtime, build, and isolation issues Integrate Podman containers with existing networking and system services Who this book is forThe book is for cloud developers looking to learn how to build and package applications inside containers and system administrators who want to deploy, manage, and integrate them with system services and orchestration solutions. This book provides a detailed comparison between Docker and Podman to aid you in learning Podman quickly.
Transform your app ideas into fully functional prototypes with the help of expert tips and best practices from Mendix partners Key Features Meet the ever-increasing demand for software solution delivery without having to write any code Build high-availability, low-cost applications unlike those developed via a traditional software engineering approach Explore Mendix from product design through to delivery using real-world scenarios Book DescriptionLow-code is a visual approach to application development. It enables developers of varying experience levels to create web and mobile apps using drag-and-drop components and model-driven logic through a graphic user interface. Mendix is among the fastest-growing platforms that enable low-code enthusiasts to put their software ideas into practice without having to write much code, and Building Low-Code Applications with Mendix will help you get up and running with the process using examples and practice projects. The book starts with an introduction to Mendix, along with the reasons for using this platform and its tools for creating your first app. As you progress, you'll explore Mendix Studio Pro, the visual environment that will help you learn Mendix app creation. Once you have your working app ready, you'll understand how to enhance it with custom business logic and rules. Next, you'll find out how to defend your app against bad data, troubleshoot and debug it, and finally, connect it with real-world business platforms. You'll build practical skills as the book is filled with examples, real-world scenarios, and explanations of the tools needed to help you build low-code apps successfully. By the end of this book, you'll have understood the concept of low-code development, learned how to use Mendix effectively, and developed a working app. What you will learn Gain a clear understanding of what low-code development is and the factors driving its adoption Become familiar with the various features of Mendix for rapid application development Discover concrete use cases of Studio Pro Build a fully functioning web application that meets your business requirements Get to grips with Mendix fundamentals to prepare for the Mendix certification exam Understand the key concepts of app development such as data management, APIs, troubleshooting, and debugging Who this book is forThis book is for tech-savvy business analysts and citizen developers who want to get started with Mendix for rapid mobile and web application development. The book is also helpful for seasoned developers looking to learn a new tool/platform and for anyone passionate about designing technical solutions without wanting to indulge in the complexities of writing code. The book assumes beginner-level knowledge of object-oriented programming and the ability to translate technical solutions from business requirements.
Make the most of Salesforce Marketing Cloud through automation and increase your productivity on the platform without adding any extra resources Key Features Increase your knowledge of automation theory and the applications of SFMC Explore automation with SFMC and its capabilities beyond general usage Understand the automation features and integrations of SFMC to use the platform from outside the user interface (UI) for maximum efficiency Book DescriptionSalesforce Marketing Cloud (SFMC) allows you to use multiple channels and tools to create a 1:1 marketing experience for your customers and subscribers. Through automation and helper tasks, you can greatly increase your productivity while also reducing the level of effort required in terms of volume and frequency. Automating Salesforce Marketing Cloud starts by discussing what automation is generally and then progresses to what automation is in SFMC. After that, you'll focus on how to perform automation inside of SFMC all the way to fully running processes and capabilities from an external service. Later chapters explore the benefits and capabilities of automation and having an automation mindset both within and outside of SFMC. Equipped with this knowledge and example code, you'll be prepared to maximize your SFMC efficiency. By the end of this Salesforce book, you'll have the skills you need to build automation both inside and outside of SFMC, along with the knowledge for using the platform optimally. What you will learn Understand automation to make the most of the SFMC platform Optimize ETL activities, data import integrations, data segmentations, email sends, and more Explore different ways to use scripting and API calls to increase Automation Studio efficiency Identify opportunities for automation with custom integrations and third-party solutions Optimize usage of SFMC by building on the core concepts of custom integrations and third-party tools Maximize utilization of employee skills and capabilities and reduce operational costs while increasing output Who this book is forThis book is for Salesforce Marketing Cloud users who want to know how to make their day to day lives more efficient and get the most out of the tool by working smarter, not harder. A solid understanding of SFMC and basic knowledge of what automation is will help you get the most out of this book.
Practical recipes and real-world examples to help you create custom solutions, automate processes, and extend the platform's capabilities. Using Power Apps, Power Automate, Component Framework, and Dataverse, you can implement RPA technologies and more Key Features * Enhanced with a new chapter on Power Apps Portals, robotic process automation technologies, Map capabilities to canvas apps, solutions using mixed reality, and much more * Explore a variety of built-in templates to create custom apps for specific business scenarios * Strengthen your enterprise applications with advanced techniques and proven tips using a low-code approach Book Description Power Apps is a low-code platform owned by Microsoft. With this platform, you can create solutions to solve your business needs while integrating with other components of the Power Platform, such as Microsoft Power Automate, Microsoft Power BI, or others. This book is a handy solution guide to meet many organizational requirements. Microsoft Power Apps Cookbook, Second Edition takes a pragmatic approach where every business scenario is presented in a quick, practical, and action-oriented recipe. You will be able to use these instant solutions in your development environment and customize your business apps to meet the challenging business needs. This will help you handle real-world scenarios and experiences to give you a head start in your Power Apps projects. You will discover different aspects of Power Apps, from building canvas apps, designing model-driven solutions, extending with custom connectors, integrating with other platforms, moving to the pro-developer side using Power Apps Component Framework, and reaching beyond the organization with Power Apps Portals. By the end of this Microsoft Power Apps book, you'll have gained experience in developing applications using the Power Apps platform and all of its features. What you will learn * Extend your platform using maps and Mixed Reality * Design model-driven solutions using various features of Microsoft Dataverse * Reach beyond the organization with Microsoft Power Apps Portals * Automate business processes such as triggered events, status change notifications, and approval systems with Power Automate * Implement AI Builder's intelligent capabilities in your solutions * Learn to integrate and test canvas apps * Extend your business applications' capabilities using Power Apps Component Framework * Implement RPA technologies with Power Automate Who This Book Is For This book is targeted at information workers and citizen developers wanting to develop custom applications for their organizations or the projects they are undertaking. Traditional app developers will also find this book useful by discovering how to use a rapid application development environment with increased productivity and speed. Readers are expected to have prior exposure to the Microsoft Power Platform ecosystem.
Wahrend der Abwicklung komplexer DV-Projekte stellt sich den Verant- wortlichen haufig das Problem einer strukturierten Erfahrungsnutzung. Oft sind im Unternehmen bereits vergleichbare Aufgabenstellungen in fruheren Vorhaben gelost worden oder es waren ahnliche organisatorische Anforderungen zu bewaltigen. Gerade im Software-Bereich liegen auf- grund der naturgemaB starken Rechnereinbindung immer mehr Informa- tionen bereits digitalisiert vor. Der zunehmende Einsatz von Bl1rokommu- nikationssystemen leistet dazu einen weiteren Beitrag. Vor diesem Hinter- grund wird die automatisierte Auswertung und problemspezifische Aufbe- rei tung dieser Daten durch eine Erfahrungsdatenbank interessant. Das vorliegende Buch enthalt die Konzeption eines solchen Werkzeugs. Es wen- det sich vornehmlich an das Software-Management, Projektverantwortli- che und Stabsstellen, die die gewonnenen Erkenntnisse in einer organisati- onsspezifischen Realisierung umsetzen konnen. Die Erfahrungsnutzung in Software-Projekten ist sicher nicht durch eine ausschlieBlich theoretische Betrachtung zu behandeln. Daher bildet eine breite empirische Untersuchung des Informationsbedarfs von Software- Verantwortlichen und von ihnen verwendeter Methoden und Verfahren den Schwerpunkt dieser Arbeit. Dies war erreichbar, da der Zentralbereich Forschung und Technik der Siemens AG, Ml1nchen, das Vorhaben im Rah- men seiner Doktorandenforderung groBzl1gig unterstutzte und mir durch die fast dreijahrige Integration in geeignete Abteilungen und Projektum- gebungen interessante Einblicke und umfangreiche Recherchen vor Ort er- moglichte. Weiter wurden auch fur Detailuntersuchungen in Form von einigen Diplomarbeiten Mittel bereitgestellt. Die Leistungen der Verfasser sind im Text entsprechend hervorgehoben. Ich bin allen Damen und Herren der Siemens AG zu groBem Dank ver- pflichtet, die durch ihre konstruktive Mithilfe zum Gelingen der Arbeit beigetragen haben. Insbesondere sind dies Herr Jochen Platz, Herr Dr.
Gegenwartig ist ein starker Trend zu Informationsverbundsyste- men zu beobachten, die einen von Hardwaretechnologie, Betriebs- systemen und herstellerspezifischen Architektureigenschaften unab- hangigen Informationsaustausch iiber genormte Protokolle und Schnittstellen ermaglichen. Lokale Computemetze (LANs - Local Area Networks) verdie- nen in diesem Zusammenhang eine groBe Beachtung. Ihre rasante Entwicklung und die groBe Vielfalt vorhandener Altemativen brin- gen Probleme der Auswahl und der Optimierung mit sich. Bei ihrer Behandlung, bei ihrem Studium ergeben sich jedoch auch noch an- dere, grundsatzliche Schwierigkeiten aufgrund ihres interdisziplina- ren Charakters. Lokale Computemetze sind nicht eindeutig der Kommunikationstechnik, der Informatik, der Elektronik, der Orga- nisationstechnik oder der Automatisierungstechnik zuzuordnen. Je- doch: fUr alle diese Gebiete besitzen sie eine groBe Bedeutung, und Entwicklungen in nahezu allen diesen Bereichen pragen umgekehrt ihre Evolution. Urn die Technologie der lokalen Computemetze und deren praktische Bedeutung fUr potentielle Anwendungsbereiche adaquat darzustellen, reicht es nicht, sich auf die Fiille relevanter Details zu konzentrieren. Vielmehr ist ein systemtechnischer, ein strukturierter Top-down-Zugang angebracht, ja erforderlich. Das vorliegende Buch will zu einem gerade rechten Zeitpunkt den interessierten Lesem einen derartigen Zugang anbieten. Der Zeitpunkt erscheint mir deshalb als giinstig, da die erste Euphorie urn verschiedene inkompatible Herstellerkonzepte und illusionisti- sche Idealvorstellungen nahezu verflogen ist. Auch potentielle An- wender machen sich bereits emsthafte Gedanken iiber Implementie- rungen. Die namhaften Normungs- und Standardisierungsgremien haben iiberdies bereits sehr vielbeachtete Referenzmodelle sowie Standards und Standardentwiirfe erarbeitet.
Datenverarbeitung ist zweckorientiert - sie soll helfen, Anwendungsprobleme zu losen. So betrachtet scheint es ganz natUrlich, daB in den ersten Jahren der Datenverarbeitung die Anwendungsprogramme im Mittelpunkt der Betrachtungen standen. Die Daten als notwendige Voraussetzung (Eingabe) fUr Anwendungspro- gramme als Zwischenergebnisse oder als die angestrebten Endergebnisse (Ausgabe) wurden jeweils so organisiert, daB die im Anwendungsprogramm ablau- fenden Verarbeitungsalgorithmen moglichst effizient waren. Diese Betrachtungsweise fUhrte zu einer starken Abhangigkeit der Programme von den Datenorganisationen und damit zu mangelnder Flexibilitat. Es entstand eine Vielzahl von Dateien, die inhaltlich zum Teil in engen logischen Beziehungen miteinander standen, ohne daB man in der Lage gewesen ware, diese Redundanz yom System verwalten zu lassen. Die Verantwortung fUr die Integritat, Konsi- stenz und Sicherheit der Daten lag bei den Benutzern, was unvermeidbar zu Unvertraglichkeiten und mangelnder Aktualitat der (zeitabhangigen) Daten fUhrte. SchlieBlich entstanden erhohte Kosten fUr die mehrfache Erfassung und Wartung der Daten. Kurz gesagt: Der zunachst natUrlich erscheinende Weg yom Anwendungsprogramm zu den Daten fUhrte in eine Sackgasse. Schon seit Mitte der sechziger Jahre strebte man deshalb eine prinzipielle Anderung an. Die Daten eines Unternehmens oder einer Verwaltung traten in den Mittelpunkt der Betrachtungen als ein ganz wesentlicher Aktivposten, der ein dynamisches Eigenleben fUhrt und der verwaltet und gepflegt werden muB.
In der Vergangenheit gingen die Impulse fUr die Entwicklung des computergestUtzten Rechnungswesens von der Kostenarten- und Kostenstellenrechnung aus, da diese verhaltnismaBig einfach zu standardisieren sind. Wesentlicher Schwerpunkt der 7. SaarbrUcker Arbeitstagung RECHNUNGSWESEN UND EDV/1986 ist deshalb die KOSTENTRAGERRECHNUNG und die Diskussion der zu diesem Teilgebiet des Rechnungswesens existierenden Standardsoftwarelosungen. Bei der KOSTENTRAGERRECHNUNG kommen Branchen- und Produktunter- schiede starker zum Tragen, so daB sich die Entwickler bisher sowohl bei Eigenentwicklungen als auch bei Standardsoftware- losungen zurlickgehalten haben. FUr die Entscheidungsfindung wird eine aktuelle Kalkulation jedoch immer wichtiger. Neu hinzugekommen sind in diesem Jahr Aspekte, wie sie sich aus CIM (Computer Integrated Manufacturing) und dem neuen Bilanz- richtlinien-Gesetz auf das Rechnungswesen ergeben. Die SAARBRUCKER ARBEITSTAGUNGEN sind schon seit geraumer Zeit zu einem Forum der Diskussion von Anwendung, Entwicklung und Forschung geworden, von dem wesentliche Anregungen fUr zukUnftige Entwicklungen ausgehen. Von den 26 Vortragen entfallt mit mehr als 15 Vortragen auch dieses Jahr der Uberwiegende Teil der Referate auf kompetente Anwender. Es kommen aber auch die Hersteller zu Wort, urn ihre Konzeptionen und Losungen vorzustellen. Parallel dazu referieren namhafte Wissenschaftler zu den Themen der Tagung. Damit wird ein ausgewogenes Verhaltnis zwischen Theorie und Praxis erreicht, durch das sich die Tagung seit jeher aus- zeichnet. Der Dank der Herausgeber gilt den Referenten fUr die Bereit- schaft, ihre Vortrage zur Veroffentlichung vorzulegen. Weiter- hin danken die Herausgeber ihren Mitarbeitern Lucie Bender, Ulrike Graff, Dipl.-Kfm. Hubert Jager, Dipl.-Kfm. Dipl.-Inform.
Build production-grade machine learning models with Amazon SageMaker Studio, the first integrated development environment in the cloud, using real-life machine learning examples and code Key Features Understand the ML lifecycle in the cloud and its development on Amazon SageMaker Studio Learn to apply SageMaker features in SageMaker Studio for ML use cases Scale and operationalize the ML lifecycle effectively using SageMaker Studio Book DescriptionAmazon SageMaker Studio is the first integrated development environment (IDE) for machine learning (ML) and is designed to integrate ML workflows: data preparation, feature engineering, statistical bias detection, automated machine learning (AutoML), training, hosting, ML explainability, monitoring, and MLOps in one environment. In this book, you'll start by exploring the features available in Amazon SageMaker Studio to analyze data, develop ML models, and productionize models to meet your goals. As you progress, you will learn how these features work together to address common challenges when building ML models in production. After that, you'll understand how to effectively scale and operationalize the ML life cycle using SageMaker Studio. By the end of this book, you'll have learned ML best practices regarding Amazon SageMaker Studio, as well as being able to improve productivity in the ML development life cycle and build and deploy models easily for your ML use cases. What you will learn Explore the ML development life cycle in the cloud Understand SageMaker Studio features and the user interface Build a dataset with clicks and host a feature store for ML Train ML models with ease and scale Create ML models and solutions with little code Host ML models in the cloud with optimal cloud resources Ensure optimal model performance with model monitoring Apply governance and operational excellence to ML projects Who this book is forThis book is for data scientists and machine learning engineers who are looking to become well-versed with Amazon SageMaker Studio and gain hands-on machine learning experience to handle every step in the ML lifecycle, including building data as well as training and hosting models. Although basic knowledge of machine learning and data science is necessary, no previous knowledge of SageMaker Studio and cloud experience is required.
Now in full color, this edition of Learning Tableau will empower you to bring data to life and make better business decisions Key Features * Learn the basics of data analysis, from snappy visualizations to comprehensive dashboards, now in full color * Gain meaningful insights with geospatial analysis, scripting extensions, and other advanced methods * Explore the latest Tableau 2022 features, including Einstein Discovery and Explain Data Book Description Learning Tableau 2022 helps you get started with Tableau and data visualization, but it does more than just cover the basic principles. It helps you understand how to analyze and communicate data visually, and articulate data stories using advanced features. This new edition is updated with Tableau's latest features, such as dashboard extensions, Explain Data, and integration with Einstein Discovery, which will help you harness the full potential of artificial intelligence (AI) and predictive modeling in Tableau. After an exploration of the core principles, this book will teach you how to use table and level of detail calculations to extend and alter default visualizations, build interactive dashboards, and master the art of telling stories with data. You'll learn about visual statistical analytics and create different types of static and animated visualizations and dashboards for rich user experiences. We then move on to interlinking different data sources with Tableau's Data Model capabilities, along with maps and geospatial visualization. You will further use Tableau Prep Builder's ability to efficiently clean and structure data. By the end of this book, you will be proficient in implementing the powerful features of Tableau 2022 to improve the business intelligence insights you can extract from your data. What you will learn * Develop stunning visualizations to explain complex data with clarity * Build interactive dashboards to drive actionable user insights for large datasets * Explore Data Model capabilities and interlink data from various sources * Create and use calculations to solve problems and enrich your data analytics * Enable smart decision-making with data clustering, distribution, and forecasting * Extend Tableau's native functionality with extensions, scripts, and Einstein Discovery AI * Leverage Tableau Prep Builder's amazing capabilities for data cleaning and structuring * Share your data stories to build a culture of trust and action Who This Book Is For This Tableau book is for aspiring BI developers and data analysts, data scientists, researchers, and anyone else who wants to gain a deeper understanding of data through Tableau. This book starts from the ground up, so you won't need any prior experience with Tableau before you dive in, but a full Tableau license (or 14-day demo license) is essential to be able to make use of all the exercises.
Seit die Softwarekosten einen erheb1ichen Antei1 des EDV-Budgets erreichten, versucht man sich an dem schwieri gen Prob1 em, si e ka1ku1atorisch in den Griff zu bekommen. Die frUhen Untersuchungen von NELSON (1967), ARON (1969) und im deutschsprachi gen Raum von EMDE und SEIBT (1970) standen am Anfang einer groBen Reihe von Arbeiten, die alle das Ziel hatten, eine geeignete Vorgehensweise zur Prognose des Projektaufwands zu entwicke1n. Das vor1iegende Buch wendet sich vornehm1ich an den DV-Praktiker, der - beispie1sweise in der Funktion a1s DV-Leiter oder Projektmanager in einem groBeren Unternehmen - neb en der Bewa1tigung seiner taglichen Auf- gaben kaum die Zeit findet, sich kritisch mit der Vie1zah1 der angebote- nen Verfahren zur Termin- und Aufwandschatzung von DV-Projekten ausein- anderzusetzen. Aus diesem Zeitprob1em und oftmals auch aufgrund schlechter Erfahrungen beim Einsatz bestimmter Schatzmethoden in der Vergangenheit resu1tieren eine starke Unsicherheit und oft auch eine generell ab1ehnende Haltung der "DV-Profi sOl gegenUber allen Verfahren zur Aufwandschatzung, obwohl die Notwendigkeit zu einer moglichst genauen Kostenschatzung von DV-Pro- jekten kaum ernsthaft bestritten werden dUrfte.
Schwerpunkte der 6. Saarbriicker Arbeitstagung Rechnungswesen und ED V/85 sind die UnterstUtzung von Kostenplanung und -steuerung durch Mikrocomputer, Entwicklungstendenzen des innerbetrieblichen Rechnungs- wesens, die Planung und Verrechnung von Forschungs-und Entwicklungs- kosten, die Diskussion von Standardsoftwarelosungen im Rechnungswesen sowie Controlling-Probleme in verschiedenen Branchen. Wie in den vorangegangenen Tagungen wird dabei anhand von Vortragen von Wissenschaftlern sowie von Anwendungsberichten aus Industrie, Handel und Dienstleistung das gesamte Spektrum der Problematik behandeIt. Her- steller von Hard-und Software stellen neue Losungen vor. Die Saarbriicker Arbeitstagungen haben sich zu einem Forum der Diskus- sion von Forschung, Entwicklung und Anwendung auf dem Gebiet des inner- betrieblichen Rechnungswesens entwickelt. Von ihr gehen wesentliche Im- pulse zur Weiterentwicklung und Neukonzeption von Anwendungssoftware aus. Wahrend auf der Tagung Rechnungswesen und ED V/84 erst zaghafte Ver- suche zum Einsatz von Personalcomputern im Rechnungswesen vorgestellt werden konnten, kann nun bereits auf eine breitere Anwendungserfahrung tibergegriffen werden. Auch ist das Problem der Anwendung von zentralen Computern mit ihren bereichstibergreifenden Datenbasen und den Work- stations des Rechnungswesens gelost worden. Damit ist die Voraussetzung geschaffen, da die Vorteile einer mit hohem Benutzerkomfort versehenen dezentralen Verarbeitung und der hohen Verfligbarkeit zentraler Datenbe- stande miteinander kombiniert werden konnen. Wie auch in den Vorjahren danken die Herausgeber den Refel nten fUr die Bereitschaft, ihren Vortrag zur VerOffentlichung in schriftlicher Form vorzulegen. Weiter danken die Herausgeber ihren Mitarbeitern Lucie Bender, Ulrike Graff, Dipl.-Kfm. Hubert Jager, Dipl.-Kfm. Richard Lackes, Dipl.-
Das Thema "Offene Multifunktionale oeuroarbeitsplatze und Bildschirmtext" steht fur eine neue kommunikationstechnische Entwicklungsstufe, auf der sich unsere Gesellschaft in absehbarer Zeit ansiedeln wird. Im Vorfeld dieser gesamtgesellschaftlichen Reorganisation drangen sich neuartige und wichtige technisch-wissenschaftliche Fragestellungen. Auf Empfehlung der Fachgruppe "Rechnernetze" des Fachbereichs "Rechnerarchitektur und Betriebssysteme" hat die GI (unterstutzt von der NTG) vom 25. bis 29. Juni 1984 diese erste Fachveransta1tung zu diesem Technologiekomplex durchgefuhrt - bisher hatten wir es in diesem speziellen Bereich ja lediglich mit Messen und ahnlichem zu tun. Den Vorsitz des Programmkomitees hatten F. Kruckeberg und O. Spaniol. Nach bewahrtem;v\uster aus vergangenen Jahren wurden die ersten beiden Tage der Veranstaltung durch ein Tutorium genutzt, wahrend die letzten drei Tage fur die eigentliche Arbeitstagung zur VerfJgung standen. Die im Tutorium behandelten Themenbereiche kann man folgendermassen zusammenfassen: - otx - Einfuhrung, Technik und Anwendungsbeispiele. - Textsysteme - Benutzerschnittstellen und zukunftige Entwicklungen. - Telematikdienste und -gerate. In der Arbeitstagung selbst haben Experten der einzelnen Teilbereiche ihre speziellen Kenntnisse zur Diskussion gestellt. Die funf dafur verfugbaren halben Tage waren den folgenden Themenkomplexen gewidmet: - Deutsche und europaische Rahmenbedingungen fur Informationstechnik und Telematik. - Btx - Dienst, Technik, insatz und Trends. - Buroarbeitsplatze - Herstellerkonzepte und Neuentwicklungen. - Dokumente - Bearbeitung und Umlauf. - Burotechno1ogie - Sicherheit, Analyse und Anwendungsbeispiele.
Das "Buro" als Arbeitsplatz, an dem schwerpunktmassig die Informations- erfassungs-, 'verarbei tungs- und -ubermittlungsvorgange von Menschen initiiert und, gegebenenfalls durch Maschinenunterstutzung, abgewickelt werden, steht zur Zeit uberall im Mittelpunkt aktueller Diskussionen. Das vollautomatisierte Buro, in dem keine Menschen mehr zur direkten Verarbeitung anfallender Geschaftsvorgange benoetigt werden, darf als ein vorhersehbares Extrem nicht vernachlassigt werden. Am Buroarbeitsplatz in unterschiedlicher Auspragung durch stand-alone Systeme und/oder durch Nutzung von externen Systemen uber Kommunikationsstrecken als Sprache, Daten, Text, Grafik oder Bild bereitgestellte Informationen und Informa- tionsverarbejtungsleistungen werden als Basis zur Aufgabenerfullung so- wie als Hilfsmittel begriffen, die es mit anderen Techniken fur die Ab- wicklung von Burotatigkeiten zu integrieren gilt. Das Themenfeld ist vor dem Hintergrund des sich abzeichnenden Entwick- lungstrends der achtziger Jahre zu sehen, den isolierten Einsatz von "klassischen" betrieblichen EDV-Konzepten aufzugeben und zu einer inte- grierten Loesung u.a. von Daten-, Text- und Nachrichtenverarbeitung zur Verbesserung des betrieblichen Wirkungsgrades zu gelangen. Im einzelnen geht es um die Analyse, verbindende Gestaltung und computergestutzte (Teil-) Automatisierung von mit Informationsverarbeitung zusammenhangen- den Tatigkeiten, wie u.a. Schreiben, Zusammenstellung, Kopieren, Ablegen und Wiederauffinden von Informationen, einfache und komplexe Aufberei- tung von Informationen, Kommunikation uber verschiedene Medien zwischen Menschen und/oder Maschinen.
|
You may like...
Enterprise Big Data Engineering…
Martin Atzmueller, Samia Oussena, …
Hardcover
R5,385
Discovery Miles 53 850
Portfolio and Investment Analysis with…
John B. Guerard, Ziwei Wang, …
Hardcover
R2,313
Discovery Miles 23 130
Cybersecurity Issues and Challenges for…
Saqib Saeed, Abdullah M. Almuhaideb, …
Hardcover
R8,190
Discovery Miles 81 900
An Introduction to Creating Standardized…
Todd Case, Yuting Tian
Hardcover
R1,569
Discovery Miles 15 690
Jump into JMP Scripting, Second Edition…
Wendy Murphrey, Rosemary Lucas
Hardcover
R1,575
Discovery Miles 15 750
|